1 00:00:04,200 --> 00:00:08,240 Pravednost Michael Sandel 2 00:00:08,240 --> 00:00:15,240 Moralna strana ubojstva 3 00:00:33,509 --> 00:00:36,587 Ovo je kolegij o pravednosti i započinjemo jednom pričom. 4 00:00:37,750 --> 00:00:39,735 Pretpostavimo da ste vozač tramvaja 5 00:00:40,179 --> 00:00:43,809 i vaš tramvaj juri tračnicama 90 km na sat, 6 00:00:44,640 --> 00:00:48,741 a na kraju tračnica uočavate pet radnika koji rade na pruzi. 7 00:00:49,390 --> 00:00:52,972 Pokušavate stati, ali ne možete, kočnice vam ne rade. 8 00:00:53,829 --> 00:00:56,077 Očajni ste jer znate 9 00:00:56,780 --> 00:01:01,090 da ako se zaletite u tih pet radnika, svi će poginuti. 10 00:01:01,490 --> 00:01:03,612 Pretpostavimo da to znate sa sigurnošću 11 00:01:05,079 --> 00:01:06,703 i osjećate se bespomoćni 12 00:01:07,420 --> 00:01:12,550 dok ne primijetite sporedni kolosijek s desne strane 13 00:01:13,170 --> 00:01:18,039 a na kraju tog kolosijeka je jedan radnik koji radi na pruzi. 14 00:01:19,079 --> 00:01:25,326 Vaš upravljač radi pa možete skrenuti tramvaj, ako želite, 15 00:01:26,010 --> 00:01:27,912 na sporedni kolosijek, 16 00:01:28,680 --> 00:01:31,751 i tako ubiti jednog radnika, ali poštedivši petoricu. 17 00:01:33,269 --> 00:01:35,199 Evo našeg prvog pitanja. 18 00:01:35,929 --> 00:01:37,809 Kako ispravno postupiti? 19 00:01:38,819 --> 00:01:40,478 Što biste vi učinili? 20 00:01:40,638 --> 00:01:42,030 Hajde da provedemo anketu. 21 00:01:42,470 --> 00:01:47,700 Koliko bi vas skrenulo tramvaj na sporedni kolosijek? 22 00:01:47,850 --> 00:01:49,030 Dignite ruke. 23 00:01:52,019 --> 00:01:55,330 Koliko vas ne bi? Koliko bi vas nastavilo ravno naprijed? 24 00:01:57,650 --> 00:02:00,630 Ostavite podignute ruke, oni koji bi išli ravno naprijed. 25 00:02:04,049 --> 00:02:07,334 Šačica ljudi bi, velika većina bi skrenula. 26 00:02:08,048 --> 00:02:09,548 Da čujemo prvo ... 27 00:02:09,878 --> 00:02:15,039 Sada moramo istražiti razloge zašto mislite da je to ispravno učiniti. 28 00:02:15,089 --> 00:02:20,769 Počnimo s većinom, koja bi skrenula na sporedni kolosijek. 29 00:02:21,798 --> 00:02:23,409 Zašto bi to učinili? 30 00:02:23,669 --> 00:02:25,241 Koji bi bio vaš razlog? 31 00:02:25,688 --> 00:02:28,569 Tko bi nam iznio svoj razlog? 32 00:02:29,808 --> 00:02:31,838 Samo naprijed, ustanite. 33 00:02:32,218 --> 00:02:37,916 Zato jer ne može biti ispravno ubiti petoro kad možete ubiti jednoga, umjesto toga. 34 00:02:39,579 --> 00:02:43,981 Ne bi bilo u redu ubiti petoricu, ako možete ubiti samo jednog umjesto toga. 35 00:02:46,748 --> 00:02:48,208 To je dobar razlog. 36 00:02:52,959 --> 00:02:53,778 Tko još? 37 00:02:53,848 --> 00:02:56,658 Da li se svi slažu s tim razlogom? 38 00:02:59,228 --> 00:03:00,078 Izvolite. 39 00:03:01,218 --> 00:03:07,400 Mislim da je to isti razlog zbog kojeg ljude koji su u 9/11 spustili avion 40 00:03:07,533 --> 00:03:09,309 u polje u Pennsilvaniji, smatramo herojima 41 00:03:09,399 --> 00:03:15,035 jer su odabrali da ubiju ljude u avionu, a ne puno više ljudi u velikim zgradama. 42 00:03:15,909 --> 00:03:20,650 Znači, princip je bio isti u 9/11, tragična okolnost, 43 00:03:21,379 --> 00:03:24,593 bolje ubiti jednoga da bi petorica preživjela? 44 00:03:25,359 --> 00:03:28,220 Je li to razlog za većinu vas koji bi skrenuli? 45 00:03:30,428 --> 00:03:34,598 Da čujemo sada one koji su u manjini, 46 00:03:35,508 --> 00:03:37,217 one koji ne bi skrenuli. 47 00:03:40,558 --> 00:03:44,966 Mislim da je to ista vrsta mentaliteta koja opravdava genocid i totalitarizam, 48 00:03:45,206 --> 00:03:49,156 kako bi spasili jednu naciju, istrebljujete drugu. 49 00:03:50,189 --> 00:03:52,538 Pa što bi vi učinili u tom slučaju? 50 00:03:53,038 --> 00:04:00,098 Kako bi izbjegli užase genocida, vi bi se zaletili u petoricu i ubili ih? 51 00:04:03,389 --> 00:04:05,018 Po svoj prilici, da. 52 00:04:07,408 --> 00:04:08,787 Dobro, tko još? 53 00:04:09,930 --> 00:04:11,908 To je hrabar odgovor, hvala. 54 00:04:13,348 --> 00:04:17,917 Razmotrimo drugi slučaj s tramvajem 55 00:04:20,078 --> 00:04:25,338 i pogledajmo da li se, oni od vas koji su u većini, 56 00:04:27,428 --> 00:04:29,864 i dalje žele držati tog principa, 57 00:04:30,990 --> 00:04:33,329 bolje da umre jedan, kako bi petorica preživjela. 58 00:04:33,500 --> 00:04:36,743 Ovaj puta vi niste vozač tramvaja, nego promatrač. 59 00:04:37,998 --> 00:04:41,231 Stojite na mostu iznad tramvajske pruge, 60 00:04:42,678 --> 00:04:44,898 a prugom se približava tramvaj. 61 00:04:45,658 --> 00:04:47,830 Na kraju pruge nalazi se 5 radnika, 62 00:04:49,620 --> 00:04:51,329 kočnice ne rade, 63 00:04:51,738 --> 00:04:55,453 tramvaj samo što nije naletio na petoricu i ubio ih. 64 00:04:55,949 --> 00:05:00,238 A sada, vi niste vozač i zaista se osjećate bespomoćni. 65 00:05:01,309 --> 00:05:04,263 Dok ne primijetite da pokraj vas stoji 66 00:05:06,499 --> 00:05:09,373 naginjući se preko ograde mosta, 67 00:05:09,889 --> 00:05:12,210 jedan vrlo debeli čovjek. 68 00:05:17,398 --> 00:05:20,874 I mogli biste ga malo pogurnuti 69 00:05:22,668 --> 00:05:25,752 on bi pao s mosta na tračnice 70 00:05:27,949 --> 00:05:31,198 točno ispred tramvaja, 71 00:05:32,199 --> 00:05:35,483 on bi poginuo, ali bi spasio petoricu. 72 00:05:38,798 --> 00:05:43,563 Koliko vas bi gurnulo debelog čovjeka s mosta? Dignite ruke. 73 00:05:48,089 --> 00:05:49,532 Koliko vas ne bi? 74 00:05:50,859 --> 00:05:52,489 Većina ljudi ne bi. 75 00:05:53,849 --> 00:05:55,337 Postavlja se očito pitanje, 76 00:05:55,788 --> 00:05:58,075 što se dogodilo s principom, 77 00:05:59,878 --> 00:06:03,739 bolje spasiti pet života, čak i po cijenu žrtvovanja jednog, 78 00:06:03,839 --> 00:06:08,279 što je s principom koji su skoro svi podržali u prvom slučaju? 79 00:06:09,240 --> 00:06:12,809 Želio bih čuti nekoga iz većine u oba slučaja. 80 00:06:13,349 --> 00:06:16,287 Kako objašnjavate razliku između ta dva slučaja? 81 00:06:18,629 --> 00:06:23,460 Mislim da drugi uključuje aktivni izbor da se osobu gurne. 82 00:06:24,279 --> 00:06:29,736 Mislim da se, u suprotnom, ta osoba sama ne bi uplela u tu situaciju, 83 00:06:29,829 --> 00:06:32,609 pa birati u njegovo ime 84 00:06:36,119 --> 00:06:39,340 da ga se uključi u nešto što bi u protivnom izbjegao, 85 00:06:39,990 --> 00:06:42,788 mislim da je više od onog što imate u prvoj situaciji 86 00:06:42,830 --> 00:06:49,828 gdje tri strane, vozač i dvije grupe radnika već jesu u toj situaciji. 87 00:06:50,598 --> 00:06:54,239 Ali momak koji radi na sporednom kolosijeku, 88 00:06:55,108 --> 00:06:59,208 on nije odabrao da žrtvuje svoj život ništa više od debelog čovjeka, zar ne? 89 00:07:02,069 --> 00:07:04,570 To je istina, ali bio je na pruzi. 90 00:07:05,339 --> 00:07:07,409 Ovaj momak je bio na mostu! 91 00:07:10,439 --> 00:07:12,570 Možete nastaviti ako želite. 92 00:07:13,550 --> 00:07:15,159 Dobro, to je teško pitanje. 93 00:07:15,329 --> 00:07:18,298 Bili ste dobri, jako dobri, to je teško pitanje. 94 00:07:19,629 --> 00:07:24,470 Tko bi još pokušao naći način za usaglašavanje 95 00:07:26,028 --> 00:07:28,928 reakciju većine u ova dva slučaja? 96 00:07:30,158 --> 00:07:34,190 Pretpostavljam, u prvom slučaju, gdje imate jednog radnika i petoricu, 97 00:07:35,178 --> 00:07:38,549 izbor je između te dvije grupe i morate jednu izabrati, 98 00:07:38,839 --> 00:07:42,887 a ljudi će poginuti zbog tramvaja, ne nužno zbog vaše direktne akcije. 99 00:07:42,911 --> 00:07:47,558 Tramvaj je van kontrole i vi u djeliću sekunde morate donijetu određenu odluku, 100 00:07:48,209 --> 00:07:51,798 dok je guranje čovjeka s mosta stvarni čin ubojstva s vaše strane, 101 00:07:52,078 --> 00:07:56,328 nad time imate kontrolu, dok nad tramvajem nemate kontrolu. 102 00:07:57,278 --> 00:07:59,549 Zato mislim da je to malo drugačija situacija. 103 00:08:00,089 --> 00:08:01,701 U redu, tko ima odgovor? 104 00:08:04,360 --> 00:08:05,842 Tko želi odgovoriti? 105 00:08:06,319 --> 00:08:07,708 Je li to pravo objašnjenje? 106 00:08:09,490 --> 00:08:11,439 Ja mislim da to nije baš dobar razlog 107 00:08:11,599 --> 00:08:14,099 jer u oba slučaja morate odlučiti tko će umrijeti 108 00:08:14,099 --> 00:08:16,660 jer ili ćete izabrati da skrenete i ubijete osobu 109 00:08:16,660 --> 00:08:19,301 što je aktivna svjesna odluka da skrenete, 110 00:08:19,718 --> 00:08:24,263 ili ćete izabrati da gurnete deebelog čovjeka, što je također aktivni svjesni čin. 111 00:08:24,438 --> 00:08:26,766 Dakle u oba slučaja radite izbor. 112 00:08:27,689 --> 00:08:29,128 Vi želite li odgovoriti? 113 00:08:29,728 --> 00:08:32,908 Nisam baš siguran da je tako, još uvijek mi se čini da je drugačije, 114 00:08:33,030 --> 00:08:37,070 time što ste nekoga bacili na tračnice i ubili ga, 115 00:08:37,340 --> 00:08:39,700 vi ste ga ustvari sami ubili. 116 00:08:39,810 --> 00:08:41,370 Gurate ga, vlastitim rukama. 117 00:08:41,470 --> 00:08:46,452 Gurate ga, a to je drugačije od upravljanja nečim što će uzrokovati smrt. 118 00:08:48,669 --> 00:08:51,525 To zaista ne zvuči ispravno kad to ovako govorim. 119 00:08:52,650 --> 00:08:54,310 Ne, to je dobro, kako se zovete? 120 00:08:54,310 --> 00:08:55,190 Andrew. 121 00:08:55,250 --> 00:08:57,537 Andrew, dozvoli da te pitam ovo: 122 00:08:59,310 --> 00:09:00,230 Pretpostavimo, 123 00:09:02,050 --> 00:09:04,455 stojeći na mostu kraj tog debelog čovjeka, 124 00:09:04,809 --> 00:09:05,969 ne moram ga gurnuti, 125 00:09:05,969 --> 00:09:11,728 pretpostavimo da stoji na poklopcu koji mogu otvoriti okrećući neki kotač, ovako. 126 00:09:17,140 --> 00:09:18,380 Biste li ga okrenuli? 127 00:09:18,690 --> 00:09:22,502 Iz nekog razloga to izgleda još više pogrešno. 128 00:09:23,859 --> 00:09:28,200 Mislim, možda ako bi se slučajno naslonili na taj kotač ili tako nešto. 129 00:09:30,899 --> 00:09:35,676 Ili recimo da tramvaj leti prema sklopci koja će otvoriti poklopac, 130 00:09:37,569 --> 00:09:39,140 onda bih se mogao složiti s tim. 131 00:09:39,140 --> 00:09:42,052 Pošteno, to još uvijek izgleda pogrešno 132 00:09:42,230 --> 00:09:45,124 na način na koji nije izgledalo u prvom slučaju skretanja. 133 00:09:46,110 --> 00:09:50,069 I na još jedan način, u prvoj situaciji vi ste direktno uključeni u situaciju, 134 00:09:50,419 --> 00:09:52,232 u drugoj ste samo promatrač, 135 00:09:52,450 --> 00:09:55,818 pa imate izbor da se uključite ili ne guranjem debelog čovjeka. 136 00:09:55,958 --> 00:09:58,588 Zaboravimo na trenutak na ovaj slučaj. 137 00:10:01,269 --> 00:10:05,700 Zamislimo drugačiji slučaj. Ovaj puta vi ste doktor na hitnoj 138 00:10:06,160 --> 00:10:09,117 i dolazi vam šest pacijenata. 139 00:10:11,249 --> 00:10:14,796 Stradali su u groznom prometnom udesu tramvaja. 140 00:10:18,240 --> 00:10:21,719 Njih pet zadobilo je srednje teške povrede, jedan je u kritičnom stanju, 141 00:10:21,719 --> 00:10:26,000 trebao bi vam cijeli dan da se pobrinete za kritično povrijeđenog, 142 00:10:27,260 --> 00:10:29,610 no za to vrijeme onih pet bi umrlo. 143 00:10:29,650 --> 00:10:35,880 Ili se možete pobrinuti za tu petoricu, ali za to vrijeme onaj kritični bi umro. 144 00:10:36,470 --> 00:10:40,363 Koliko vas bi spasilo petoricu da ste doktor? 145 00:10:40,850 --> 00:10:42,772 Koliko bi vas bi spasilo jednoga? 146 00:10:44,480 --> 00:10:47,635 Vrlo malo ljudi, samo šačica ljudi. 147 00:10:49,089 --> 00:10:51,259 Isti razlog, pretpostavljam? 148 00:10:51,440 --> 00:10:53,372 Jedan život nasuprot pet? 149 00:10:55,570 --> 00:10:58,422 Sada razmotrite slučaj drugog doktora. 150 00:10:58,890 --> 00:11:01,543 Ovaj puta vi ste kirurg za transplantacije, 151 00:11:02,080 --> 00:11:05,655 imate 5 pacijenata i svakom je očajnički nužna 152 00:11:06,159 --> 00:11:08,847 transplantacija organa kako bi preživio. 153 00:11:09,639 --> 00:11:14,122 Jednom treba srce, jednom pluća, jednom bubreg, jednom jetra 154 00:11:15,130 --> 00:11:17,535 i petom gušterača. 155 00:11:20,210 --> 00:11:22,081 Ali nemate nijednog darivatelja organa. 156 00:11:22,779 --> 00:11:26,229 Uskoro ćete ih gledati kako umiru. 157 00:11:27,649 --> 00:11:29,671 A onda vam sine, 158 00:11:30,649 --> 00:11:34,800 da je u sobi do zdravi mladić koji je došao na pregled. 159 00:11:43,470 --> 00:11:44,940 Sviđa vam se to? 160 00:11:46,469 --> 00:11:48,946 I on je zadrijemao, 161 00:11:53,269 --> 00:11:55,413 mogli biste potiho ući, 162 00:11:56,769 --> 00:11:59,548 iščupati mu pet organa, ta osoba bi umrla, 163 00:12:00,600 --> 00:12:02,490 ali mogli biste spasiti petoricu. 164 00:12:03,169 --> 00:12:04,554 Koliko bi vas to učinilo? 165 00:12:06,971 --> 00:12:07,971 Itko? 166 00:12:10,229 --> 00:12:12,546 Koliko? Dignite ruke, ako bi to učinili. 167 00:12:17,820 --> 00:12:19,250 Netko na balkonu? 168 00:12:20,465 --> 00:12:21,465 Vi bi? 169 00:12:21,790 --> 00:12:24,230 Budite oprezni, ne naginjite se previše. 170 00:12:26,709 --> 00:12:28,190 Koliko ne bi? 171 00:12:29,340 --> 00:12:30,360 U redu. 172 00:12:30,760 --> 00:12:35,228 Što vi kažete, govorite vi sa balkona koji bi iščupali organe, zašto? 173 00:12:35,840 --> 00:12:38,629 Ja bi zapravo htio razmotriti malo drugačiju mogućnost, 174 00:12:38,629 --> 00:12:41,358 tako da uzmem jednog od onih kojima treba organ, 175 00:12:41,358 --> 00:12:42,888 koji će prvi umrijeti 176 00:12:43,108 --> 00:12:46,619 i iskoristio bi njegova četiri zdrava organa da spasim ostalu četvoricu. 177 00:12:49,920 --> 00:12:51,909 To je prilično dobra ideja. 178 00:12:54,389 --> 00:12:55,943 To je sjajna ideja, 179 00:12:57,830 --> 00:12:59,189 osim činjenice 180 00:13:00,159 --> 00:13:03,108 da ste upravo upropastili filozofsku poantu. 181 00:13:06,159 --> 00:13:09,240 Odmaknimo se malo od ovih priča i argumenata. 182 00:13:10,240 --> 00:13:15,897 da uočimo nekoliko stvari u načinu kako su se argumenti počeli razvijati. 183 00:13:17,199 --> 00:13:22,062 Određeni moralni principi već su se počeli pojavljivati 184 00:13:23,340 --> 00:13:24,919 u diskusijama koje smo vodili. 185 00:13:25,879 --> 00:13:30,439 Pa hajde da vidimo koji su to moralni principi. 186 00:13:31,250 --> 00:13:35,215 Prvi moralni princip koji se pojavio u diskusiji kaže 187 00:13:35,710 --> 00:13:38,550 ispravna stvar, moralna stvar koju treba učiniti 188 00:13:38,610 --> 00:13:43,899 ovisi o posljedicama kojima će rezultirati vaše djelovanje. 189 00:13:45,480 --> 00:13:48,650 Na kraju dana, bolje je da prežive petorica 190 00:13:49,140 --> 00:13:51,160 čak i ako jedan mora umrijeti. 191 00:13:51,950 --> 00:13:57,360 To je primjer konsekvencijalističkog moralnog rasuđivanja. 192 00:13:58,710 --> 00:14:03,110 Konsekvencijalističko moralno rasuđivanje locira moralnost u posljedicama nekog čina 193 00:14:03,160 --> 00:14:07,235 u stanju svijeta koji će biti rezultat onoga što učinite. 194 00:14:08,779 --> 00:14:11,989 Ali onda smo otišli malo dalje razmatrajući druge slučajeve 195 00:14:12,789 --> 00:14:14,438 i ljudi nisu baš bili sigurni 196 00:14:14,960 --> 00:14:18,385 u konsekvencijalistčko moralno rasuđivanje. 197 00:14:20,529 --> 00:14:24,745 Kad su oklijevali gurnuti debelog čovjeka s mosta 198 00:14:25,789 --> 00:14:28,778 ili iščupati organe nevinog pacijenta, 199 00:14:29,330 --> 00:14:32,529 ljudi su ukazivali na razloge 200 00:14:33,839 --> 00:14:39,589 povezane s intrinzičnom kvalitetom samog čina, 201 00:14:39,800 --> 00:14:42,154 kakve god mogle biti posljedice. 202 00:14:42,439 --> 00:14:44,172 Ljudi su se opirali, 203 00:14:44,819 --> 00:14:48,539 ljudi su mislili da je to jednostavno pogrešno, kategorički pogrešno, 204 00:14:49,480 --> 00:14:56,274 ubiti osobu, nevinu osobu, čak i u ime spašavanja pet života. 205 00:14:56,284 --> 00:15:02,964 Bar su tako ljudi mislili u drugoj verziji priča koje smo razmatrali. 206 00:15:05,420 --> 00:15:11,065 To ukazuje na drugi kategorički način 207 00:15:12,617 --> 00:15:15,567 razmišljanja o moralnom rasuđivanju. 208 00:15:15,749 --> 00:15:18,639 Kategoričko moralno rasuđivanje postavlja moralnost 209 00:15:18,814 --> 00:15:21,304 u određene apsolutne moralne zahtjeve, 210 00:15:21,354 --> 00:15:25,718 određene kategoričke dužnosti i prava bez obzira na posljedice. 211 00:15:27,440 --> 00:15:30,490 U danima i tjednima pred nama istraživat ćemo 212 00:15:30,680 --> 00:15:35,163 razlike između konsekvencijalističkih i kategoričkih moralnih principa. 213 00:15:36,539 --> 00:15:42,650 Najutjecajniji primjer konsekvencijalističkog moralnog rasuđivanja je utilitarizam, 214 00:15:42,959 --> 00:15:48,929 doktrina koju je razvio Jeremy Bentham, engleski političkii filozof 18. stoljeća. 215 00:15:51,100 --> 00:15:56,319 Najvažniji filozof kategoričkog moralnog rasuđivanja 216 00:15:56,619 --> 00:16:01,472 je Emmanuel Kant, njemački filozof 18. stoljeća. 217 00:16:02,590 --> 00:16:06,221 Stoga ćemo razmotriti ova dva različita načina moralnog rasuđivanja 218 00:16:07,259 --> 00:16:09,709 procijeniti ih i također razmotriti druge. 219 00:16:10,669 --> 00:16:15,239 Ako pogledate nastavni program, primijetit ćete da čitamo niz sjajnih i čuvenih knjiga, 220 00:16:15,650 --> 00:16:21,910 knjige Aristotela, Johna Lockea, Immanuela Kanta, Johna Stewarta Milla 221 00:16:22,080 --> 00:16:22,983 i drugih. 222 00:16:24,029 --> 00:16:27,749 Također ćete primijetiti u programu da ne čitamo samo te knjige, 223 00:16:28,169 --> 00:16:30,447 bavimo se također 224 00:16:31,039 --> 00:16:36,040 suvremenim političkim i pravnim kontraverzama koje potiču filozofska pitanja. 225 00:16:37,000 --> 00:16:39,433 Diskutirat ćemo o jednakosti i nejednakosti, 226 00:16:39,820 --> 00:16:41,420 afirmativnu akciju (pozitivnu diskriminaciju), 227 00:16:41,490 --> 00:16:43,453 slobodu govora nasuprot govora mržnje, 228 00:16:43,698 --> 00:16:46,538 istospolne brakove, vojnu obavezu, 229 00:16:46,799 --> 00:16:48,960 spektar praktičnih pitanja. 230 00:16:49,770 --> 00:16:54,545 Zašto? Ne tek da bi oživjeli te apstraktne i daleke knjige, 231 00:16:55,350 --> 00:16:58,450 već da rasvjetlimo, razotkrijemo, kako filozofija utječe na 232 00:16:58,450 --> 00:17:01,380 naše svakidašnje živote, uključujući naše političke živote. 233 00:17:05,480 --> 00:17:09,730 Zato ćemo čitati te knjige i raspravljati o tim pitanjima 234 00:17:09,870 --> 00:17:14,008 i vidjeti kako svaki od njih utječe i rasvjetljava druge. 235 00:17:15,480 --> 00:17:20,439 To može zvučati dosta privlačno, ali ovdje vas moram upozoriti na nešto. 236 00:17:22,329 --> 00:17:24,120 A upozorenje je sljedeće: 237 00:17:25,210 --> 00:17:29,220 čitati ove knjige, na ovaj način, 238 00:17:31,549 --> 00:17:33,428 kao vježbu u samo-spoznaji, 239 00:17:34,119 --> 00:17:36,758 čitati ih na ovaj način nosi određene rizike, 240 00:17:38,019 --> 00:17:40,719 rizike koji su istovremeno osobni i politički, 241 00:17:41,649 --> 00:17:46,539 rizike koje poznaje svaki student političke filozofije. 242 00:17:47,399 --> 00:17:49,766 Ti rizici proizlaze iz činjenice 243 00:17:50,330 --> 00:17:55,106 da nas filozofija uči i uznemiruje 244 00:17:56,400 --> 00:17:59,430 suočavajući nas s onim što već znamo. 245 00:18:01,390 --> 00:18:02,620 Tu postoji jedna ironija, 246 00:18:03,390 --> 00:18:08,424 teškoća ovog kolegija skriva se u činjenici da vas uči ono što već znate. 247 00:18:09,789 --> 00:18:15,059 To radi uzimajući ono što znamo iz poznatih neupitnih okruženja, 248 00:18:16,470 --> 00:18:18,544 i pretvarajući to u nešto nepoznato. 249 00:18:19,979 --> 00:18:22,259 Na taj način su funkcionirali oni primjeri, 250 00:18:23,119 --> 00:18:28,467 s hipotetičkim pretpostavkama s kojima smo započinjali, mješavinom šaljivog i razboritog. 251 00:18:29,029 --> 00:18:31,610 Jednako tako funkcioniraju i te filozofske knjige. 252 00:18:31,650 --> 00:18:36,380 Filozofija nas otuđuje od poznatog, 253 00:18:37,519 --> 00:18:39,620 ne tako da nam daje nove informacije, 254 00:18:40,390 --> 00:18:42,610 nego pozivajući i potičući 255 00:18:43,599 --> 00:18:45,299 novi način opažanja, 256 00:18:47,420 --> 00:18:49,010 ali, i tu je rizik, 257 00:18:49,970 --> 00:18:53,109 jednom kada ono poznato postane strano, 258 00:18:54,299 --> 00:18:56,602 nikada više nije potpuno isto. 259 00:18:57,329 --> 00:19:01,500 Samo-spoznaja je kao izgubljena nevinost, 260 00:19:03,030 --> 00:19:05,449 kako god uznemirujuća bila kada ju nađete 261 00:19:06,029 --> 00:19:08,209 nikada je više ne možete od-misliti 262 00:19:09,720 --> 00:19:11,102 ili ne-znati. 263 00:19:13,390 --> 00:19:15,533 Ono što čini ovaj poduhvat teškim 264 00:19:17,259 --> 00:19:18,841 ali također intrigantnim, 265 00:19:19,490 --> 00:19:23,155 je to da je moralna i politička filozofija priča 266 00:19:25,400 --> 00:19:28,654 i vi ne znate kuda će vas ta priča odvesti, ali ono što znate 267 00:19:29,339 --> 00:19:32,423 je da je to priča o vama. 268 00:19:34,410 --> 00:19:36,269 To su osobni rizici. 269 00:19:37,079 --> 00:19:39,055 A što je s političkim rizicima? 270 00:19:39,980 --> 00:19:42,798 Jedan način predstavljanja kolegija poput ovog 271 00:19:43,038 --> 00:19:45,878 bio bi obećavajući vam da ćete čitanjem ovih knjiga 272 00:19:46,370 --> 00:19:47,919 i diskutiranjem o ovim pitanjima 273 00:19:48,069 --> 00:19:50,680 postati bolji, odgovorniji građani. 274 00:19:51,769 --> 00:19:54,510 Propitivat ćete presumpcije javnih politika, 275 00:19:54,510 --> 00:19:57,109 brusiti svoje političke prosudbe, 276 00:19:57,289 --> 00:20:00,524 postat ćete učinkovitiji sudionik javnih zbivanja. 277 00:20:02,549 --> 00:20:05,669 Ali to bi bilo nepotpuno i obmanjujuće obećanje. 278 00:20:06,369 --> 00:20:09,849 Politička fizofija uglavnom ne funkcionira na taj način. 279 00:20:11,490 --> 00:20:13,516 Morate dozvoliti mogućnost 280 00:20:14,430 --> 00:20:17,760 da vas politička filozofija može učiniti gorim građaninom, 281 00:20:18,809 --> 00:20:19,789 a ne boljim, 282 00:20:21,390 --> 00:20:26,469 ili barem gorim građaninom prije no što vas učini boljim. 283 00:20:27,950 --> 00:20:30,400 A to je zbog toga jer je filozofija 284 00:20:30,400 --> 00:20:35,100 aktivnost koja udaljava i čak iscrpljuje. 285 00:20:36,199 --> 00:20:39,071 A to vidite vraćajući se Sokratu; 286 00:20:39,560 --> 00:20:41,480 ima jedan dijalog, Gorgija, 287 00:20:41,480 --> 00:20:48,231 u kojem jedan od Sokratovih prijatelja, Kalikle, pokušava odvratiti ga od filozofiranja. 288 00:20:49,620 --> 00:20:53,040 Kalikle kaže Sokratu, 'Filozofija je zgodna igračka, 289 00:20:54,400 --> 00:20:57,600 ako se u nju upuštamo umjereno u primjereno životno doba, 290 00:20:57,980 --> 00:21:02,889 ali ako na njoj ustrajemo više no što treba, ona je apsolutna propast,' 291 00:21:03,779 --> 00:21:07,484 'Poslušaj moj savjet,' kaže Kalikle, 'ostavi se rasprave, 292 00:21:08,199 --> 00:21:10,720 nauči vještine aktivnog života, 293 00:21:11,180 --> 00:21:16,390 neka ti modeli ne budu ti ljudi koji vrijeme provode u tim sitničavim igrama riječi, 294 00:21:16,880 --> 00:21:21,220 već oni koji imaju dobro situiran život i reputaciju i mnoge druge blagodati.' 295 00:21:22,079 --> 00:21:26,038 Kalikle zapravo Sokratu kaže, 296 00:21:26,808 --> 00:21:29,329 'Okani se filozofiranja, uozbilji se, 297 00:21:30,549 --> 00:21:33,032 upiši se u poslovnu školu.' 298 00:21:35,170 --> 00:21:37,215 I Kalikle je bio u pravu. 299 00:21:38,299 --> 00:21:39,900 Bio je u pravu utoliko 300 00:21:39,900 --> 00:21:46,308 što nas filozofija udaljava od konvencija, utvrđenih postavki i prihvaćenih vjerovanja. 301 00:21:46,750 --> 00:21:49,508 To su rizici, osobni i politički, 302 00:21:49,970 --> 00:21:53,439 a unatoč tim rizicima postoji karakteristično odstupanje, 303 00:21:54,089 --> 00:21:56,260 ime tog odstupanja je skepticizam. 304 00:21:56,340 --> 00:21:58,782 To je ideja, ide otprilike ovako: 305 00:21:58,990 --> 00:22:02,000 nismo riješili, jednom zauvijek, 306 00:22:03,660 --> 00:22:08,068 ni slučajeve ni principe o kojima smo raspravljali na početku, 307 00:22:09,759 --> 00:22:15,857 a kad Aristotel i Locke i Kant i Mill nisu riješili ta pitanja nakon svih tih godina, 308 00:22:17,220 --> 00:22:18,670 tko smo mi da mislimo 309 00:22:19,589 --> 00:22:24,400 da ih mi, ovdje u Sanders Theatre tijekom jednog semestra možemo riješiti? 310 00:22:26,430 --> 00:22:31,690 Možda je samo stvar u tome da svaka osoba ima vlastite principe 311 00:22:31,690 --> 00:22:35,639 i ništa se više o tome nema za reći, nikakvo rasuđivanje. 312 00:22:36,084 --> 00:22:37,144 To je izbjegavanje. 313 00:22:37,630 --> 00:22:39,100 Izbjegavanje skepticizmom 314 00:22:39,440 --> 00:22:42,043 na što bih ja dao sljedeći odgovor: 315 00:22:42,660 --> 00:22:46,530 Istina, o ovim pitanjima se rspravlja već dugo vremena, 316 00:22:47,559 --> 00:22:51,189 ali sam činjenica da se uvijek iznova pojavljuju i ustraju, 317 00:22:52,700 --> 00:22:56,581 može sugerirati da, iako su u nekom smislu nemoguća, 318 00:22:57,169 --> 00:22:59,426 neizbježna su u drugom. 319 00:22:59,799 --> 00:23:02,002 A razlog zašto su neizbježna, 320 00:23:02,299 --> 00:23:04,340 razlog zašto su neizbježna je 321 00:23:04,340 --> 00:23:08,746 da mi svakoga dana živimo odgovarajući na ta pitanja. 322 00:23:09,949 --> 00:23:14,578 Zato skepticizam, dizanje ruku i odustajanje od moralnog promišljanja, 323 00:23:16,130 --> 00:23:17,468 nije rješenje. 324 00:23:18,279 --> 00:23:22,540 Immanuel Kant vrlo dobro je opisao problem sa skepticizmom kad je napisao: 325 00:23:22,860 --> 00:23:25,458 'Skepticizam je počivalište za ljudski razum 326 00:23:25,918 --> 00:23:28,709 gdje može razmišljati o svojim dogmatskim lutanjima, 327 00:23:29,099 --> 00:23:32,380 ali nije mjesto za trajno obitavanje.' 328 00:23:33,069 --> 00:23:35,739 'Jednostavno se pomiriti sa skepticizmom,' pisao je Kant, 329 00:23:35,940 --> 00:23:40,320 'nikada ne može biti dovoljno za prevladavanje nemira razuma.' 330 00:23:42,660 --> 00:23:49,140 Pokušao sam, kroz ove priče i argumente, izložiti neki vid rizika i iskušenja 331 00:23:49,898 --> 00:23:51,859 opasnosti i mogućnosti. 332 00:23:51,959 --> 00:23:57,069 Zaključit ću rekavši: da je cilj ovog kolegija 333 00:23:58,099 --> 00:24:03,791 probuditi nemir razuma i vidjeti kuda bi to moglo voditi. 334 00:24:04,380 --> 00:24:05,498 Hvala vam. 335 00:24:15,440 --> 00:24:18,828 U tako očajnoj situaciji morate učiniti ono što morate da bi preživjeli. 336 00:24:19,078 --> 00:24:20,729 Morate učiniti ono što morate? 337 00:24:20,989 --> 00:24:22,509 Što morate, morate, baš tako. 338 00:24:22,789 --> 00:24:29,792 Ako 19 dana niste ništa jeli, netko se mora žrtvovati da bi ljudi preživjeli. 339 00:24:30,500 --> 00:24:32,230 U redu, dobro je. Kako se zovete? 340 00:24:32,300 --> 00:24:33,220 Marcus. 341 00:24:33,640 --> 00:24:34,580 Što kažete Marcusu? 342 00:24:34,610 --> 00:24:35,610 SLUČAJ KANIBALIZMA 343 00:24:44,569 --> 00:24:48,086 Prošli puta smo započeli s nekim pričama, 344 00:24:49,110 --> 00:24:52,040 moralnim dilemama u vezi tramvaja. 345 00:24:52,699 --> 00:24:54,159 i doktora 346 00:24:54,509 --> 00:25:00,179 i zdravih pacijenata u opasnosti da budu žrtve transplantacije organa. 347 00:25:00,910 --> 00:25:05,490 Uočili smo dvije stvari u vezi diskusija koje smo imali 348 00:25:06,560 --> 00:25:09,123 Jedna se odnosi na način na koji smo diskutirali. 349 00:25:09,899 --> 00:25:13,136 Počelo je s našim prosudbama u danim slučajevima. 350 00:25:13,569 --> 00:25:16,625 Pokušali smo artikulirati razloge odnosno principe 351 00:25:18,060 --> 00:25:20,048 u podlozi naših prosudbi, 352 00:25:22,549 --> 00:25:24,541 a onda, suočeni s novim slučajem 353 00:25:25,120 --> 00:25:28,339 našli smo se preispitujući te principe 354 00:25:30,069 --> 00:25:32,585 revidirajući svakog u svjetlu drugog. 355 00:25:34,019 --> 00:25:37,873 I primijetili smo ugrađeno nastojanje da ih uskladimo, 356 00:25:38,600 --> 00:25:40,661 naše ocjene danih slučajeva 357 00:25:41,680 --> 00:25:44,677 i principe koje bismo usvojili nakon promišljanja. 358 00:25:46,359 --> 00:25:50,110 Također smo uočili nešto u vezi sadržaja argumenata 359 00:25:50,589 --> 00:25:52,805 koji su se pojavili tokom diskusije. 360 00:25:55,250 --> 00:26:00,859 Primijetili smo da smo ponekad u iskušenju locirati moralnost nekog čina u posljedicama, 361 00:26:00,969 --> 00:26:04,671 u rezultatima, u stanju svijeta koji nastaje tim činom. 362 00:26:06,519 --> 00:26:09,928 To smo nazvali konsekvencijalnim moralnim rasuđivanjem. 363 00:26:11,690 --> 00:26:14,319 No, primijetili smo također da u nekim slučajevima 364 00:26:16,440 --> 00:26:19,466 nismo se povodili samo rezultatima. 365 00:26:21,039 --> 00:26:24,325 Ponekad mnogi od nas su osjećali 366 00:26:25,349 --> 00:26:33,029 da ne samo posljedice, nego i intrinzična kvaliteta čina ima moralnu važnost. 367 00:26:35,129 --> 00:26:40,099 Neki ljudi su tvrdili da postoje određene stvari koje su kategorički neispravne, 368 00:26:40,440 --> 00:26:43,461 čak i ako donose dobar rezultat, 369 00:26:44,460 --> 00:26:48,720 čak i ako spašavaju petoro ljudi po cijenu jednog života. 370 00:26:49,788 --> 00:26:56,315 Stoga smo suprotstavili konsekvencijalne moralne principe kategoričkima. 371 00:26:57,920 --> 00:27:01,000 Danas i sljedećih nekoliko dana 372 00:27:01,099 --> 00:27:09,571 preispitat ćemo jednu od najutjecajnijih verzija konsekvencijalističke teorije morala, 373 00:27:10,970 --> 00:27:13,789 a to je filozofija utilitarizma. 374 00:27:15,729 --> 00:27:20,563 Jeremy Bentham, engleski politički filozof 18. stoljeća, 375 00:27:21,690 --> 00:27:29,122 prvi je jasno sistematski izložio utilitarističku teoriju morala, 376 00:27:32,210 --> 00:27:37,612 a Benthamova ideja, njegova ključna ideja, 377 00:27:38,190 --> 00:27:40,000 vrlo je jednostavna 378 00:27:42,680 --> 00:27:47,392 i moralno intuitivno vrlo dopadljiva. 379 00:27:48,220 --> 00:27:51,085 Benthamova ideja je sljedeća: 380 00:27:51,589 --> 00:27:55,791 ono što je ispravno učiniti, što je pravedno učiniti, 381 00:27:57,419 --> 00:28:01,997 je maksimizirati korisnost. 382 00:28:02,339 --> 00:28:04,035 Što je mislio pod korisnost? 383 00:28:05,529 --> 00:28:08,860 Pod korisnost je podrazumijevao ravnotežu 384 00:28:11,140 --> 00:28:14,880 ugode i boli, radosti i patnje. 385 00:28:16,538 --> 00:28:20,590 Tako smo došli do principa maksimiziranja korisnosti. 386 00:28:22,308 --> 00:28:25,250 Započeo uočivši da svima nama, 387 00:28:26,088 --> 00:28:27,440 svim ljudskim bićima, 388 00:28:27,750 --> 00:28:30,320 upravljaju dva suverena gospodara, 389 00:28:31,040 --> 00:28:32,468 bol i ugoda. 390 00:28:34,369 --> 00:28:38,989 Mi ljudska bića volimo ugodu i ne volimo bol 391 00:28:42,038 --> 00:28:45,279 i zato bismo moralnost morali bazirati 392 00:28:45,839 --> 00:28:48,449 - bez obzira da li se radi o našem vlastitom životu 393 00:28:48,940 --> 00:28:54,177 ili kao zakonodavci ili građani razmišljamo kakav bi trebao biti zakon - 394 00:28:57,029 --> 00:29:05,069 - ispravno je da individualno ili kolektivno djelujemo tako da maksimiziramo 395 00:29:05,838 --> 00:29:08,771 sveopću razinu sreće. 396 00:29:11,369 --> 00:29:14,947 Benthamov utilitarizam se ponekad sažima sloganom: 397 00:29:15,430 --> 00:29:17,844 'najveće dobro za najveći broj'. 398 00:29:18,869 --> 00:29:22,255 S tim osnovnim principom korisnosti pri ruci, 399 00:29:22,730 --> 00:29:27,700 krenimo ga testirati i propitivati kroz još jedan slučaj, 400 00:29:28,179 --> 00:29:31,898 još jednu priču, ali ovoga puta to nije hipotetska priča, 401 00:29:32,640 --> 00:29:34,230 nego priča iz stvarnog života, 402 00:29:34,339 --> 00:29:37,438 slučaj Kraljice protiv Dudley i Stevensa. 403 00:29:38,099 --> 00:29:42,520 To je čuveni britanski pravni spor iz 19. stoljeća 404 00:29:44,009 --> 00:29:46,763 o kojem se mnogo raspravlja na pravnim fakultetima. 405 00:29:47,348 --> 00:29:49,869 Evo što se dogodilo: 406 00:29:50,059 --> 00:29:55,896 - ukratko ću ispričati priču, a onda bih želio čuti kako bi vi presudili 407 00:29:57,059 --> 00:29:59,314 zamišljajući da ste vi porota. 408 00:30:03,989 --> 00:30:07,243 Tadašnja priča u novinama opisala je pozadinu. 409 00:30:08,819 --> 00:30:12,370 Nikada nije bila ispričana tužnija priča o udesu na moru 410 00:30:12,789 --> 00:30:15,680 no što je priča preživjelih sa broda Mignonette. 411 00:30:16,240 --> 00:30:20,994 Brod je potonuo u Južnom Atlantiku 1300 milja od Cape Towna. 412 00:30:21,789 --> 00:30:25,097 Imao je četiri člana posade, Dudley je bio kapetan, 413 00:30:25,710 --> 00:30:29,331 Stephens je bio prvi oficir, Brooks je bio mornar. 414 00:30:29,890 --> 00:30:34,559 Sve ljudi odličnog karaktera, kako nam govori novinska priča. 415 00:30:35,819 --> 00:30:40,919 Četvrti član posade bio je mali od palube, Richard Parker star 17 godina. 416 00:30:42,689 --> 00:30:45,679 On je bio siroče, nije imao nikoga od obitelji 417 00:30:46,930 --> 00:30:50,270 i to je bilo njegovo prvo dulje putovanje morem. 418 00:30:51,410 --> 00:30:55,570 Pošao je, kaže novinska priča, unatoč savjetima svojih prijatelja, 419 00:30:56,730 --> 00:31:02,187 pošao je u nadi mladenačke ambicije da će putovanje napraviti od njega čovjeka. 420 00:31:02,940 --> 00:31:04,690 Nažalost, nije mu bilo suđeno. 421 00:31:05,140 --> 00:31:07,410 Činjenice slučaja nisu bile sporne, 422 00:31:07,639 --> 00:31:10,321 val je udario u brod i Mignonette je potonuo. 423 00:31:12,000 --> 00:31:14,649 Četvoro članova posade spasilo se u čamcu za spasavanje. 424 00:31:14,859 --> 00:31:20,979 Jedina hrana koju su imali bile su dvije konzerve konzervirane repe. 425 00:31:21,429 --> 00:31:22,740 Bez pitke vode. 426 00:31:23,980 --> 00:31:26,070 Prva tri dana nisu jeli ništa. 427 00:31:26,609 --> 00:31:30,889 Četvrti dan otvorili su jednu konzervu repe i pojeli je. 428 00:31:31,589 --> 00:31:33,509 Sljedeći dan uhvatili su kornjaču. 429 00:31:33,980 --> 00:31:37,330 Druga konzerva repe i kornjača 430 00:31:38,220 --> 00:31:40,798 omogućili su im da prežive sljedećih nekoliko dana 431 00:31:40,798 --> 00:31:45,630 i onda osam dana nisu jeli ništa. Bez hrane i bez vode. 432 00:31:46,529 --> 00:31:49,529 Zamislite sebe u takvoj situaciji. 433 00:31:49,839 --> 00:31:50,874 Što biste vi učinili? 434 00:31:52,479 --> 00:31:54,062 Evo što su oni učinili. 435 00:31:55,119 --> 00:31:59,993 Mali od palube Parker je sada već ležao na dnu čamca za spasavanje, u ćošku, 436 00:32:00,630 --> 00:32:04,621 jer se bio napio morske vode protivno savjetima ostalih. 437 00:32:05,490 --> 00:32:09,312 Bilo mu je zlo i izgledalo je da umire. 438 00:32:10,289 --> 00:32:17,419 Devetnaestog dana Dudley, kapetan, predložio je da svi izvlače lutriju, 439 00:32:17,768 --> 00:32:21,979 da bi trebali vući slamke da vide tko bi trebao umrijeti da spasi ostale. 440 00:32:23,489 --> 00:32:28,059 Brooks je odbio, nije mu se sviđala ideja o lutriji. 441 00:32:29,030 --> 00:32:32,998 Ne znamo je li to bilo zbog toga jer nije želio riskirati 442 00:32:33,238 --> 00:32:36,084 ili jer je vjerovao u kategoričke moralne principe. 443 00:32:36,869 --> 00:32:39,887 No, u svakom slučaju, slamke se nisu izvlačile. 444 00:32:41,860 --> 00:32:44,643 Sljedeći dan još uvijek nije bilo nijednog broda na vidiku 445 00:32:45,028 --> 00:32:48,092 pa je Dudley rekao Brooksu da odvrati pogled 446 00:32:48,470 --> 00:32:52,833 i dao znak Stephensu da bi bilo dobro da ubiju dječaka Parkera. 447 00:32:53,659 --> 00:32:57,567 Dudley se pomolio, rekao dječaku da je kucnuo njegov čas 448 00:32:58,480 --> 00:33:02,362 i usmrtio ga perorezom ubadajaći ga u vratnu venu. 449 00:33:03,220 --> 00:33:09,070 Brooks se oporavio od svog prigovora savjesti kako bi sudjelovao u podjeli jezive blagodati. 450 00:33:09,750 --> 00:33:11,029 Četiri dana su se njih trojica hranila tijelom i krvlju malog od palube. 451 00:33:11,029 --> 00:33:15,230 452 00:33:15,230 --> 00:33:17,220 Istinita priča. 453 00:33:17,220 --> 00:33:19,390 I onda su bili spašeni. 454 00:33:19,390 --> 00:33:22,840 Dudley opisuje njihovo spašavanje u svom dnevniku; 455 00:33:22,839 --> 00:33:24,678 456 00:33:24,679 --> 00:33:27,570 zapanjujućim eufemizmom, citiram: 457 00:33:27,569 --> 00:33:29,648 '24-tog dana dok smo doručkovali konačno se pojavio brod.' 458 00:33:29,648 --> 00:33:34,750 459 00:33:34,750 --> 00:33:38,599 460 00:33:38,599 --> 00:33:44,309 Trojicu preživjelih pokupio je njemački brod i odveo natrag u Falmouth u Engleskoj 461 00:33:44,309 --> 00:33:47,079 gdje su uhapšeni i suđeni. 462 00:33:47,079 --> 00:33:47,829 Brooks je postao zaštićeni svjedok, Dudley i Stephensu se sudilo. 463 00:33:47,829 --> 00:33:49,949 464 00:33:49,950 --> 00:33:54,450 Oni nisu osporavali činjenice, tvrdili su da su postupali u krajnjoj nuždi. 465 00:33:54,450 --> 00:33:55,390 466 00:33:55,390 --> 00:33:58,140 467 00:33:58,140 --> 00:33:59,430 To je bila njihova obrana. 468 00:33:59,430 --> 00:34:01,220 Tvrdili su u suštini da je bolje da jedan umre da bi trojica preživjela. 469 00:34:01,220 --> 00:34:03,250 470 00:34:03,250 --> 00:34:06,420 471 00:34:06,420 --> 00:34:08,619 Tužilac nije bio uvjeren ovim argumentom, rekao je da je ubojstvo, ubojstvo 472 00:34:08,619 --> 00:34:10,849 473 00:34:10,849 --> 00:34:12,509 474 00:34:12,509 --> 00:34:16,429 i tako je slučaj dospio pred sud. 475 00:34:16,429 --> 00:34:19,489 Zamislite da ste vi porota, 476 00:34:19,489 --> 00:34:21,989 a da bismo pojednostavili diskusiju, 477 00:34:21,989 --> 00:34:23,010 ostavite po strani pitanje zakona i pretpostavimo da ste vi kao porota 478 00:34:23,010 --> 00:34:25,879 479 00:34:25,878 --> 00:34:28,278 zaduženi da odlučite da li je ono što su učinili moralno dopustivo ili nije. 480 00:34:28,278 --> 00:34:31,009 481 00:34:31,009 --> 00:34:34,378 482 00:34:34,378 --> 00:34:36,608 Koliko bi vas glasalo 'nisu krivi', 483 00:34:36,608 --> 00:34:39,808 484 00:34:39,809 --> 00:34:46,809 da je ono što su učinili moralno dopustivo? 485 00:34:49,528 --> 00:34:51,639 A koliko bi vas glasalo 'krivi', ono što su učinili je moralno neispravno? 486 00:34:51,639 --> 00:34:54,858 487 00:34:54,858 --> 00:34:57,998 Prilično znatna većina. 488 00:34:57,998 --> 00:35:03,808 Da vidimo sada razloge, a započet ću s onima u manjini. 489 00:35:03,809 --> 00:35:07,739 Da čujemo prvo obranu Dudleya i Stephensa. 490 00:35:07,739 --> 00:35:10,099 491 00:35:10,099 --> 00:35:14,160 Zašto bi ih oslobodili krivnje? 492 00:35:14,159 --> 00:35:17,989 Koji su vaši razlozi? 493 00:35:17,989 --> 00:35:20,798 Mislim da to zaslužuje moralnu osudu, 494 00:35:20,798 --> 00:35:24,349 ali također da postoji razlika između moralno nedopustivog 495 00:35:24,349 --> 00:35:26,609 i onog što nekog čini pravno odgovornim. 496 00:35:26,608 --> 00:35:30,690 Drugim riječima, kao što je rekao sudac, nemoralno nije nužno protiv zakona, 497 00:35:30,690 --> 00:35:34,789 pa iako ne mislim da nužnost opravdava krađu ili ubojstvo ili bilo koji nezakoniti čin, 498 00:35:34,789 --> 00:35:36,169 499 00:35:36,168 --> 00:35:38,578 500 00:35:38,579 --> 00:35:43,509 u nekom času stupanj nužnosti ustvari vas oslobađa krivnje. 501 00:35:43,509 --> 00:35:45,849 502 00:35:45,849 --> 00:35:50,588 Drugi branitelji, drugi glasovi u obrani? 503 00:35:50,588 --> 00:35:53,038 Moralna opravdanja za ono što su učinili? 504 00:35:53,039 --> 00:35:56,989 505 00:35:56,989 --> 00:35:57,619 506 00:35:57,619 --> 00:35:58,798 507 00:35:58,798 --> 00:35:59,570 Meni se čini u tako očajnoj situaciji morate činiti ono što morate kako bi preživjeli. 508 00:35:59,570 --> 00:36:03,139 509 00:36:03,139 --> 00:36:04,679 Morate učiniti ono što morate? 510 00:36:04,679 --> 00:36:06,789 Morate učiniti što morate, tako je. 511 00:36:06,789 --> 00:36:07,849 Ako ste izdržali 19 dana bez hrane 512 00:36:07,849 --> 00:36:09,899 513 00:36:09,898 --> 00:36:14,710 netko se jednostavno mora žrtvovati da ljudi mogu preživjeti. 514 00:36:14,710 --> 00:36:16,139 I štoviše, recimo da su preživjeli i postali produktivni članovi društva 515 00:36:16,139 --> 00:36:21,299 koji odu kući i, na primjer, dobrotvorne organizacije i svašta drugo za opću dobrobit. 516 00:36:21,300 --> 00:36:26,230 517 00:36:26,230 --> 00:36:28,519 Ja ne znam što su oni radili poslije, možda su ubili još ljudi ... 518 00:36:28,519 --> 00:36:30,478 519 00:36:30,478 --> 00:36:32,889 520 00:36:32,889 --> 00:36:35,708 Što ako su otišli kući i postali ubojice? 521 00:36:35,708 --> 00:36:38,908 Što ako su otišli kući i postali ubojice? 522 00:36:38,909 --> 00:36:42,878 Ne biste željeli znati koga su ubili? 523 00:36:42,878 --> 00:36:45,848 Istina, to je fer. 524 00:36:45,849 --> 00:36:49,609 Ne bih želio znati koga su ubili. 525 00:36:49,608 --> 00:36:50,708 Dobro je, kako se zovete? Marcus. 526 00:36:50,708 --> 00:36:52,489 Čuli smo obranu, par glasova u obrani, 527 00:36:52,489 --> 00:36:54,050 528 00:36:54,050 --> 00:36:55,660 sada treebamo čuti tužiteljstvo. 529 00:36:55,659 --> 00:36:57,298 530 00:36:57,298 --> 00:36:59,338 Većina ljudi misli da je ono što su učinili neispravno, Zašto? 531 00:36:59,338 --> 00:37:05,068 532 00:37:05,068 --> 00:37:09,898 Jedna od prvih stvari koju sam ja pomislila bilo je, 533 00:37:09,898 --> 00:37:11,409 'Pa, dobro, nisu jako dugo jeli, 534 00:37:11,409 --> 00:37:12,469 pa su možda mentalno oštećeni 535 00:37:12,469 --> 00:37:15,139 536 00:37:15,139 --> 00:37:16,408 pa se to može iskoristiti za obranu, mogući argument 537 00:37:16,409 --> 00:37:20,619 538 00:37:20,619 --> 00:37:24,179 da nisu bili prisebni i donosili su odluke koje inače ne bi, 539 00:37:24,179 --> 00:37:28,519 a ako je to prihvatljiv argument, 540 00:37:28,518 --> 00:37:33,608 da morate biti u stanju promijenjene svijesti da bi učinili tako nešto, 541 00:37:33,608 --> 00:37:36,108 to navodi da ljudi koji taj argument smatraju uvjerljivim 542 00:37:36,108 --> 00:37:40,088 zaista misle da postupaju nemoralno ... 543 00:37:40,088 --> 00:37:41,248 Ali ja želim znati što vi mislite. Vi ih branite ... 544 00:37:45,548 --> 00:37:49,449 Vi ste za to da budu optuženi, zar ne? 545 00:37:49,449 --> 00:37:51,088 Ja ne mislim da su postupali na moralno prihvatljiv način ... 546 00:37:51,088 --> 00:37:52,909 A zašto ne? Što kažete ... Tu je Marcus, on ih je upravo branio. 547 00:37:52,909 --> 00:37:53,880 On je rekao, čuli ste što je rekao, 548 00:37:53,880 --> 00:37:55,249 549 00:37:55,248 --> 00:37:56,558 550 00:37:56,559 --> 00:38:00,119 da morate učiniti ono što morate u takvoj situaciji. 551 00:38:00,119 --> 00:38:04,789 Što ćete mu odgovoriti? 552 00:38:04,789 --> 00:38:06,439 553 00:38:06,438 --> 00:38:13,438 Da ne postoji situacija u kojoj bi ljudima bilo dozvoljeno da uzmu 554 00:38:13,579 --> 00:38:17,959 ideju sudbine ili živote drugih ljudi u svoje ruke, 555 00:38:17,958 --> 00:38:19,328 da mi nemamo tu vrstu moći. 556 00:38:19,329 --> 00:38:21,399 Dobro, u redu, hvala. Kako se vi zovete? 557 00:38:21,398 --> 00:38:24,130 Britt. 558 00:38:24,130 --> 00:38:24,548 Tko još? 559 00:38:24,548 --> 00:38:26,028 Što vi kažete? Ustanite. 560 00:38:26,028 --> 00:38:28,159 Pitam se da li su Dudley i Stephens tražili Parkerov pristanak na umiranje. 561 00:38:28,159 --> 00:38:35,159 562 00:38:35,429 --> 00:38:37,568 I da li bi ih to oslobodilo krivnje za aktivno ubojstvo? 563 00:38:37,568 --> 00:38:41,228 564 00:38:41,228 --> 00:38:45,448 I ako je tako, da li je to još uvijek moralno opravdano? 565 00:38:45,449 --> 00:38:51,720 Zanimljivo, pristanak. Čekajte, kako se vi zovete? 566 00:38:51,719 --> 00:38:56,088 Kathleen. 567 00:38:56,088 --> 00:38:56,619 Kathleen kaže, pretpostavimo ... 568 00:38:56,619 --> 00:39:00,410 Kako bi izgledao taj scenario? 569 00:39:00,409 --> 00:39:02,608 Tu je Dudley, perorez u ruci, ali umjesto molitve, ili prije molitve, 570 00:39:02,608 --> 00:39:04,588 571 00:39:04,588 --> 00:39:07,599 kaže, 'Parker, bi li smetalo, 572 00:39:07,599 --> 00:39:11,519 mi smo očajno gladni, 573 00:39:11,518 --> 00:39:14,348 - s čim Marcus suosjeća - 574 00:39:14,349 --> 00:39:17,679 575 00:39:17,679 --> 00:39:19,769 očajno smo gladni, 576 00:39:19,768 --> 00:39:22,168 ti ionako nećeš dugo, 577 00:39:22,168 --> 00:39:23,498 - mogao bi biti mučenik - 578 00:39:23,498 --> 00:39:25,748 bili bio mučenik, što misliš o tome, Parker?' 579 00:39:25,748 --> 00:39:29,468 580 00:39:29,469 --> 00:39:33,220 Što mislite, bi li tada bilo moralno opravdano? 581 00:39:33,219 --> 00:39:37,639 582 00:39:37,639 --> 00:39:38,219 Pretpostavimo da Parker, napola pri svijesti, 583 00:39:38,219 --> 00:39:40,168 584 00:39:40,168 --> 00:39:42,498 kaže - ok. 585 00:39:42,498 --> 00:39:47,889 Ne mislim da bi bilo moralno opravdano, ali pitam se ... 586 00:39:47,889 --> 00:39:50,650 Čak i tada, ne bi bilo? 587 00:39:50,650 --> 00:39:52,490 Ne. 588 00:39:52,489 --> 00:39:54,568 Vi mislite da čak i sa njegovim pristankom to ne bi bilo moralno opravdano? 589 00:39:54,568 --> 00:39:56,369 Ima li ljudi koji misle ... 590 00:39:56,369 --> 00:39:57,200 koji žele preuzeti Kathleeninu ideju pristanka 591 00:39:57,199 --> 00:40:01,688 i koji misle da bi to tada bilo moralno opravdano? 592 00:40:01,688 --> 00:40:05,868 Dignite ruke, ako bi bilo? Ako mislite da bi bilo? 593 00:40:05,869 --> 00:40:07,588 To je vrlo zanimljivo. 594 00:40:07,588 --> 00:40:09,168 Zašto bi pristanak predstavljao moralnu razliku? 595 00:40:09,168 --> 00:40:15,888 Zašto bi? 596 00:40:15,889 --> 00:40:18,509 Ja samo mislim ako je to njegova vlastita originalna ideja, 597 00:40:18,509 --> 00:40:20,969 njegova ideja od početka, 598 00:40:20,969 --> 00:40:23,778 onda bi to bila jedina situacija u kojoj bi ja to smatrala prihvatljivim. 599 00:40:23,778 --> 00:40:25,940 Jer na taj način ne možete tvrditi da je bio pod pritiskom. 600 00:40:28,358 --> 00:40:30,579 Zante, tri protiv jednoga ili bilo koji omjer bio. 601 00:40:30,579 --> 00:40:32,759 602 00:40:32,759 --> 00:40:34,070 I mislim ako on odlučuje da daje svoj život, onda je njegova volja da se žrtvuje, 603 00:40:34,070 --> 00:40:38,009 604 00:40:38,009 --> 00:40:42,668 što neki ljudi mogu smatrati vrijednim divljenja, 605 00:40:42,668 --> 00:40:45,449 a drugi se mogu ne slagati s tom odlukom. 606 00:40:45,449 --> 00:40:49,099 Dakle, ako je on nadošao na tu ideju, 607 00:40:49,099 --> 00:40:52,820 to je jedina vrsta pristanka u koju se možemo pouzdati, moralno, 608 00:40:52,820 --> 00:40:55,359 onda bi to bilo u redu? 609 00:40:55,358 --> 00:40:57,268 610 00:40:57,268 --> 00:40:59,788 U protivnom bilo bi to nešto kao iznuđeni pristanak u tim okolnostima, 611 00:40:59,789 --> 00:41:01,469 mislite? 612 00:41:01,469 --> 00:41:05,278 613 00:41:05,278 --> 00:41:07,349 Da li itko misli da čak i Parkerov pristanak 614 00:41:07,349 --> 00:41:10,979 615 00:41:10,978 --> 00:41:13,419 ne bi opravdao njihovo ubojstvo? 616 00:41:13,420 --> 00:41:15,479 617 00:41:15,478 --> 00:41:18,088 Tko tako misli? 618 00:41:18,088 --> 00:41:19,538 Recite nam zašto, ustanite. 619 00:41:19,539 --> 00:41:21,260 Mislim da bi Parker bio ubijen u nadi da će drugi članovi posade biti spašeni, 620 00:41:21,260 --> 00:41:22,319 621 00:41:22,318 --> 00:41:26,558 622 00:41:26,559 --> 00:41:29,250 pa onda nema definitivnog razloga da on bude ubijen 623 00:41:29,250 --> 00:41:31,199 jer ne znate kada će oni biti spašeni. 624 00:41:31,199 --> 00:41:35,809 Pa ako ga ubijete i to bude uzalud, 625 00:41:35,809 --> 00:41:38,039 hoćete li nastaviti ubijati članove posade i na kraju nitko neće ostati? 626 00:41:38,039 --> 00:41:40,309 Jer netko će na koncu umrijeti. 627 00:41:40,309 --> 00:41:44,199 Pa, moralna logika situacije izgleda da je takva. 628 00:41:44,199 --> 00:41:45,829 Da bi oni nadalje odabirali najslabije, jednog po jednog, 629 00:41:45,829 --> 00:41:50,318 630 00:41:50,318 --> 00:41:51,818 dok ne bi bili spašeni. 631 00:41:51,818 --> 00:41:57,679 A u ovom slučaju, na sreću, bili su spašeni kad ih još bar troje bilo živo. 632 00:41:57,679 --> 00:41:58,880 Da je Parker da svoj pristanak, 633 00:41:58,880 --> 00:42:01,298 634 00:42:01,298 --> 00:42:04,068 bili tada bilo u redu ili ne? 635 00:42:04,068 --> 00:42:06,329 Ne, još uvijek ne bi bilo u redu. 636 00:42:06,329 --> 00:42:08,030 Recite nam zašto ne bi bilo u redu? 637 00:42:08,030 --> 00:42:10,028 Prije svega ja vjerujem da je kanibalizam moralno neispravan 638 00:42:10,028 --> 00:42:13,228 639 00:42:13,228 --> 00:42:14,509 i ne biste smjeli jesti ljudsko biće ni u kom slučaju. 640 00:42:14,510 --> 00:42:17,449 641 00:42:17,449 --> 00:42:19,380 Dakle, kanibalizam je moralno nedopušten izvan ... 642 00:42:19,380 --> 00:42:22,400 Dakle, čak i u scenariju u kojem bi se čekalo da netko umre 643 00:42:22,400 --> 00:42:24,568 644 00:42:24,568 --> 00:42:27,018 još uvijek bi to bilo nedopušteno? 645 00:42:27,018 --> 00:42:27,929 Da, za mene osobno. 646 00:42:27,929 --> 00:42:29,739 Čini mi se da to sve ovisi o osobnom moralu. 647 00:42:29,739 --> 00:42:31,199 648 00:42:31,199 --> 00:42:35,288 To je tek moje mišljenje. 649 00:42:35,289 --> 00:42:39,339 Naravno, drugi ljudi se neće složiti ... 650 00:42:39,338 --> 00:42:41,498 Pa da vidimo, da čujemo koja su njihova neslaganja 651 00:42:41,498 --> 00:42:42,639 i onda ćemo vidjeti da li imaju dovoljne razloge da vas razuvjere. 652 00:42:42,639 --> 00:42:44,259 653 00:42:44,259 --> 00:42:46,228 654 00:42:46,228 --> 00:42:48,358 655 00:42:48,358 --> 00:42:50,098 656 00:42:50,099 --> 00:42:53,249 Ima li netko tko bi mogao objasniti, vi koji ste skloni pristanku, 657 00:42:53,248 --> 00:42:57,908 658 00:42:57,909 --> 00:42:59,778 možete li objasniti zašto pristanak čini takvu moralnu razliku. 659 00:42:59,778 --> 00:43:02,028 660 00:43:02,028 --> 00:43:03,358 661 00:43:03,358 --> 00:43:05,650 Što je s idejom lutrije? 662 00:43:05,650 --> 00:43:08,930 Da li se to računa kao pristanak? 663 00:43:08,929 --> 00:43:11,308 Sjetite se, na početku Dudley je predložio lutriju. 664 00:43:11,309 --> 00:43:13,839 Pretpostavimo da su se složili s lutrijom, 665 00:43:13,838 --> 00:43:16,338 666 00:43:16,338 --> 00:43:17,369 667 00:43:17,369 --> 00:43:20,798 koliko vas bi tada reklo, to je bilo u redu. 668 00:43:20,798 --> 00:43:23,929 Pretpostavimo da su vukli slamku, mali od palube je izgubio i priča ide dalje. 669 00:43:23,929 --> 00:43:25,380 670 00:43:25,380 --> 00:43:32,380 Koliko ljudi bi reklo da je bilo moralno dopušteno? 671 00:43:33,199 --> 00:43:37,030 Brojevi rastu kad dodamo lutriju. Da čujemo jednog od vas 672 00:43:37,030 --> 00:43:41,609 za kojega bi lutrija činila moralnu razliku? 673 00:43:41,608 --> 00:43:43,458 Zašto bi? 674 00:43:43,458 --> 00:43:44,739 Mislim da ključni element koji po meni to čini zločinom 675 00:43:44,739 --> 00:43:45,718 676 00:43:45,719 --> 00:43:47,858 677 00:43:47,858 --> 00:43:53,848 je ideja da su oni u jednom času odlučili da su njihovi životi važniji od njegovog, 678 00:43:53,849 --> 00:43:56,609 a mislim da je to zapravo osnova svakog zločina. 679 00:43:56,608 --> 00:43:57,688 To je kao: moje potrebe, moje želje važnije su od tvojih i moje imaju prednost. 680 00:43:57,688 --> 00:44:01,949 A da su imali lutriju gdje su svi suglasni da netko mora umrijeti 681 00:44:01,949 --> 00:44:04,798 682 00:44:04,798 --> 00:44:06,478 683 00:44:06,478 --> 00:44:09,239 to je onda kao da se svi žrtvuju da spase ostale. 684 00:44:09,239 --> 00:44:11,008 685 00:44:11,009 --> 00:44:12,949 Onda bi to bilo u redu? 686 00:44:12,949 --> 00:44:15,880 Malo groteskno, ali ... 687 00:44:15,880 --> 00:44:18,959 Ali moralno prihvatljivo? 688 00:44:18,958 --> 00:44:22,688 Da. 689 00:44:22,688 --> 00:44:25,578 A kako se ti zoveš? 690 00:44:25,579 --> 00:44:27,329 Matt. 691 00:44:27,329 --> 00:44:31,389 Znači Matt ono što tebe muči nije kanibalizam nego izostanak propisanog postupka? 692 00:44:31,389 --> 00:44:34,689 Pretpostavljam da bi se moglo tako reći. 693 00:44:34,688 --> 00:44:38,170 A može li netko, tko se slaže s Mattom 694 00:44:38,170 --> 00:44:40,499 reći malo više o tome zašto bi lutrija, 695 00:44:40,498 --> 00:44:41,378 po vašem mišljenju, činila to moralno dopustivim? 696 00:44:41,378 --> 00:44:43,690 697 00:44:43,690 --> 00:44:47,099 698 00:44:47,099 --> 00:44:50,979 699 00:44:50,978 --> 00:44:55,568 Kako sam ja to prvobitno razumijela, malog od palube nikada nisu konzultirali 700 00:44:55,568 --> 00:44:56,398 701 00:44:56,398 --> 00:45:00,478 o tome da li će mu se ili ne, nešto dogoditi, 702 00:45:00,478 --> 00:45:01,088 čak ni da li će sudjelovati u lutriji, 703 00:45:01,088 --> 00:45:04,420 jednostavno je bilo odlučeno da je on taj koji će umrijeti. 704 00:45:04,420 --> 00:45:08,170 Točno, to se dogodilo u stvarnom slučaju, 705 00:45:08,170 --> 00:45:11,900 ali da je bila lutrija i svi su se složili oko procedure, mislite da bi bilo u redu? 706 00:45:11,900 --> 00:45:13,539 707 00:45:13,539 --> 00:45:16,418 Točno, jer onda svi znaju da će se dogoditi smrt, 708 00:45:16,418 --> 00:45:17,079 dok mali od palube nije znao čak ni da se vodi ta rasprava. 709 00:45:17,079 --> 00:45:18,878 710 00:45:18,878 --> 00:45:21,038 711 00:45:21,039 --> 00:45:21,919 Nije bilo nikakvog upozorenja njemu 712 00:45:21,918 --> 00:45:23,578 da bi znao: 'Hej, ja sam taj koji umire!'. 713 00:45:23,579 --> 00:45:28,829 Dobro, pretpostavimo da se svi slažu s lutrijom, lutrija se održi, 714 00:45:28,829 --> 00:45:35,089 mali od palube gubi, ali se predomisli. 715 00:45:35,088 --> 00:45:40,989 Već ste odlučili, to je kao usmeni ugovor, 716 00:45:40,989 --> 00:45:45,139 ne možete odustati od toga, odluka je donesena. 717 00:45:45,139 --> 00:45:45,999 Da znate da umirete kako bi drugi mogli živjeti vi bi ... 718 00:45:45,998 --> 00:45:47,688 Da je umro netko drugi znate da bi vi konzumirali njega, pa ... 719 00:45:47,688 --> 00:45:51,969 720 00:45:51,969 --> 00:45:57,429 Ali onda bi on mogao reći: 'Znam, ali ja sam izgubio.' 721 00:45:57,429 --> 00:46:01,939 Ja samo mislim da je baš u tome moralni spor, 722 00:46:01,938 --> 00:46:04,298 da nije konzultiran mali od palube i to je najjezivije 723 00:46:04,298 --> 00:46:08,909 da on uopće nije imao pojma što se zbiva. 724 00:46:08,909 --> 00:46:10,599 Da je on znao što se zbiva bilo bi malo razumljivije. 725 00:46:10,599 --> 00:46:13,109 726 00:46:13,108 --> 00:46:14,509 Dobro, sada želim čuti ... 727 00:46:14,510 --> 00:46:17,049 Dakle, postoje neki koji misle 728 00:46:17,048 --> 00:46:18,708 da je to moralno dopustivo, ali samo oko 20% vas 729 00:46:18,708 --> 00:46:24,048 730 00:46:24,048 --> 00:46:26,559 na čelu s Marcusom. 731 00:46:26,559 --> 00:46:28,439 Onda postoje neki koji kažu, 732 00:46:28,438 --> 00:46:30,208 pravi problem ovdje je izostanak suglasnosti, 733 00:46:30,208 --> 00:46:32,838 bilo suglasnosti o lutriji, fer proceduri 734 00:46:32,838 --> 00:46:37,139 ili, Katheenina ideja, suglasnosti u času smrti. 735 00:46:37,139 --> 00:46:38,588 736 00:46:38,588 --> 00:46:39,690 737 00:46:39,690 --> 00:46:40,749 738 00:46:40,748 --> 00:46:42,928 739 00:46:42,929 --> 00:46:45,139 740 00:46:45,139 --> 00:46:48,318 A ako dodamo suglasnost onda je više ljudi sklono žrtvu smatrati moralno opravdanom. 741 00:46:48,318 --> 00:46:49,019 742 00:46:49,019 --> 00:46:51,889 743 00:46:51,889 --> 00:46:54,528 744 00:46:54,528 --> 00:46:56,639 Sada bih na koncu želio čuti one od vas koji misle 745 00:46:56,639 --> 00:46:58,548 746 00:46:58,548 --> 00:47:00,199 da čak i s pristankom, čak i s lutrijom, 747 00:47:00,199 --> 00:47:01,898 748 00:47:01,898 --> 00:47:02,519 čak i s Parkerovim zadnjim promrmljanim riječima suglasnosti, 749 00:47:02,519 --> 00:47:04,579 750 00:47:04,579 --> 00:47:06,950 751 00:47:06,949 --> 00:47:08,018 u zadnjem času, 752 00:47:08,018 --> 00:47:09,179 753 00:47:09,179 --> 00:47:10,838 to biipak bilo neispravno. 754 00:47:10,838 --> 00:47:12,639 I zašto bi to bilo neispravno? 755 00:47:12,639 --> 00:47:14,248 756 00:47:14,248 --> 00:47:16,998 To želim čuti. 757 00:47:16,998 --> 00:47:18,818 Pa, cijelo vrijeme sam naginjala kategoričkom moralnom rasuđivanju 758 00:47:18,818 --> 00:47:22,639 759 00:47:22,639 --> 00:47:25,568 i mislim da postoji mogućnost da bi se složila s idejom lutrije 760 00:47:25,568 --> 00:47:29,608 i da se onda gubitnik ubije sam, 761 00:47:29,608 --> 00:47:31,440 762 00:47:31,440 --> 00:47:32,749 763 00:47:32,748 --> 00:47:33,679 764 00:47:33,679 --> 00:47:37,358 tako da onda to ne bi bio čin ubojstva, no ipak mislim da čak i na taj način 765 00:47:37,358 --> 00:47:42,278 to je pod prisilom. 766 00:47:42,278 --> 00:47:43,338 I također mislim da nema nikakvog kajanja 767 00:47:43,338 --> 00:47:44,909 Kao što Dudley piše u svom dnevniku: 'Jeli smo svoj doručak.' 768 00:47:44,909 --> 00:47:47,659 Izgleda kao da je on kao -Oh, ... 769 00:47:47,659 --> 00:47:51,440 Znate, cijela ideja nevrednovanja tuđeg života. 770 00:47:51,440 --> 00:47:53,639 Eto zbog toga mi se čini da trebam zauzeti kategorički stav. 771 00:47:53,639 --> 00:47:57,969 Želite baciti knjigu na njega? 772 00:47:57,969 --> 00:48:02,298 Zato što se ne kaje i nema osjećaj da je učinio išta loše. 773 00:48:02,298 --> 00:48:06,969 Točno. 774 00:48:06,969 --> 00:48:08,769 Ima li još branitelja 775 00:48:08,768 --> 00:48:13,268 koji kažu da je to jednostavno kategorički neispravno, sa ili bez suglasnosti. 776 00:48:13,268 --> 00:48:17,288 Da, ustanite. Zašto? 777 00:48:17,289 --> 00:48:21,829 Mislim da nesumnjivo, kako je oblikovano naše društvo, ubojstvo je ubojstvo 778 00:48:21,829 --> 00:48:24,780 na svaki način, a naše društvo na ubojstvo gleda uvijek jednako 779 00:48:24,780 --> 00:48:27,119 i mislim da nema razlike u bilo kojem slučaju. 780 00:48:27,119 --> 00:48:30,489 Dobro, da vas pitam nešto? 781 00:48:30,489 --> 00:48:33,028 Tri života su u pitanju, nasuprot jednom, 782 00:48:33,028 --> 00:48:34,509 taj jedan, mali od palube, nije imao nikoga od obitelji, 783 00:48:34,509 --> 00:48:38,739 nitko nije ovisio o njemu, 784 00:48:38,739 --> 00:48:41,418 ova trojica su imala obitelji kod kuće u Engleskoj, ovisili su o njima, 785 00:48:41,418 --> 00:48:43,328 imali su žene i djecu. 786 00:48:43,329 --> 00:48:44,989 Sjetite se Benthama. 787 00:48:44,989 --> 00:48:48,048 Bentham kaže moramo uzeti u obzir dobrobit, korisnost, sreću svakoga. 788 00:48:48,048 --> 00:48:51,288 Moramo sve to zbrojiti, pa onda to nisu samo brojevi tri prema jedan, 789 00:48:51,289 --> 00:48:54,640 790 00:48:54,639 --> 00:48:58,759 to su također svi ti ljudi kod kuće. 791 00:48:58,759 --> 00:49:00,909 Ustvari, londonske novine toga vremena i javno mnijenje suosjećali su s njima, 792 00:49:00,909 --> 00:49:04,248 793 00:49:04,248 --> 00:49:05,478 Dudleyem i Stephensom, 794 00:49:05,478 --> 00:49:07,919 a novine su rekle - da nisu bili motivirani ljubavlju i brigom 795 00:49:07,920 --> 00:49:08,280 796 00:49:08,280 --> 00:49:09,640 797 00:49:09,639 --> 00:49:13,489 za svoje voljene kod kuće sigurno to ne bi bili učinili. 798 00:49:13,489 --> 00:49:15,969 Dobro, ali kako se to razlikuje od ljudi na uglu 799 00:49:15,969 --> 00:49:17,369 800 00:49:17,369 --> 00:49:21,108 koji imaju istu želju da prehrane svoje obitelji? Ja mislim da nema razlike. 801 00:49:21,108 --> 00:49:25,279 Mislim da u svakom slučaju ako ja ubijem vas da bi popravio svoj status, to je ubojstvo 802 00:49:25,280 --> 00:49:28,430 i mislim da to trebamo gledati u istom svjetlu. 803 00:49:28,429 --> 00:49:30,278 Umjesto da kriminaliziramo određene aktivnosti 804 00:49:30,278 --> 00:49:33,760 i neke stvari prikazujemo više nasilne i surovije 805 00:49:33,760 --> 00:49:36,760 kad je u tom istom slučaju to isto, sve je to isti čin 806 00:49:36,760 --> 00:49:40,150 i mentalitet koji ide s ubojstvom, potreba da se nahrane svoje obitelji. 807 00:49:40,150 --> 00:49:43,028 Pretpostavimo da ih nije bilo tri, pretpostavimo da ih je bilo 30, 300. 808 00:49:43,028 --> 00:49:44,608 809 00:49:44,608 --> 00:49:47,358 Jedan život da se spasi tri stotine. 810 00:49:47,358 --> 00:49:48,349 Ili u vrijeme rata, tri tisuće ... 811 00:49:48,349 --> 00:49:49,589 812 00:49:49,590 --> 00:49:51,039 Ili pretpostavimo da su ulozi čak i veći. 813 00:49:51,039 --> 00:49:52,778 Pretpostavimo da su ulozi čak i veći. 814 00:49:52,778 --> 00:49:54,608 Misllim da je to još uvijek ista stvar. 815 00:49:54,608 --> 00:49:58,108 Mislite li da je Bentham imao krivo kad je rekao da je ispravno postupati tako 816 00:49:58,108 --> 00:49:58,929 da se zbroji skupna sreća? 817 00:49:58,929 --> 00:50:02,479 Mislite da nije u pravu? 818 00:50:02,478 --> 00:50:06,728 Ne mislim da je u krivu, ali mislim da je ubojstvo ubojstvo u svakom slučaju. 819 00:50:06,728 --> 00:50:09,568 Pa onda Bentham mora biti u krivu! 820 00:50:09,568 --> 00:50:12,818 Ako ste vi u pravu, on je u krivu! 821 00:50:12,818 --> 00:50:14,358 Dobro, on je u krivu. 822 00:50:14,358 --> 00:50:16,389 U redu je, hvala vam, bilo je dobro. 823 00:50:16,389 --> 00:50:19,728 Odmaknimo se od ove diskusije 824 00:50:19,728 --> 00:50:23,259 i uočimo koliko smo prigovora čuli u vezi onoga što su činili. 825 00:50:23,259 --> 00:50:26,048 Čuli smo neke obrane toga što su učinili. 826 00:50:26,048 --> 00:50:28,509 Obrana se odnosi na potrebu, njihove kobne okolnosti 827 00:50:28,509 --> 00:50:28,918 828 00:50:28,918 --> 00:50:32,588 829 00:50:32,588 --> 00:50:33,409 i, barem implicitno, ideju da su brojevi važni. 830 00:50:33,409 --> 00:50:36,018 831 00:50:36,018 --> 00:50:37,858 I ne samo da su važni brojevi, nego su važni i širi učinci, 832 00:50:37,858 --> 00:50:40,380 833 00:50:40,380 --> 00:50:43,459 njihove obitelji kod kuće, oni koji ovise o njima. 834 00:50:43,458 --> 00:50:44,768 Parker je bio siroče, nikome neće nedostajati. 835 00:50:44,768 --> 00:50:47,978 836 00:50:47,978 --> 00:50:49,578 Pa, ako sve zbrojite, ako pokušate izračunati 837 00:50:49,579 --> 00:50:50,829 838 00:50:50,829 --> 00:50:52,649 839 00:50:52,648 --> 00:50:53,998 bilancu sreće i patnje, 840 00:50:53,998 --> 00:50:56,598 841 00:50:56,599 --> 00:50:58,838 mogli biste imati osnovu da kažete da je ono što su učinili ispravno. 842 00:50:58,838 --> 00:51:02,768 843 00:51:02,768 --> 00:51:09,468 Onda smo čuli bar tri različite vrste prigovora. 844 00:51:09,469 --> 00:51:11,690 Čuli prigovor koji kaže, ono što su učinili kategorički je neispravno, 845 00:51:11,690 --> 00:51:14,108 upravo ovdje, na kraju, 846 00:51:14,108 --> 00:51:15,750 847 00:51:15,750 --> 00:51:17,389 kategorički neispravno. 848 00:51:17,389 --> 00:51:19,820 Ubojstvo je ubojstvo, uvijek je neispravno, 849 00:51:19,820 --> 00:51:20,969 čak i ako povećava ukupnu sreću društva. 850 00:51:20,969 --> 00:51:23,349 851 00:51:23,349 --> 00:51:25,639 852 00:51:25,639 --> 00:51:28,499 Kategorički prigovor, 853 00:51:28,498 --> 00:51:30,738 No, još uvijek nam ostaje istražiti zašto je ubojstvo kategorički neispravno. 854 00:51:30,739 --> 00:51:32,749 855 00:51:32,748 --> 00:51:35,448 856 00:51:35,449 --> 00:51:38,579 Da li je to zato jer čak i mali od palube imaju određena fundamentalna prava? 857 00:51:38,579 --> 00:51:42,339 858 00:51:42,338 --> 00:51:44,400 A ako je to razlog, 859 00:51:44,400 --> 00:51:47,880 odakle proizlaze ta prava ako ne iz ideje veće dobrobiti 860 00:51:47,880 --> 00:51:53,209 ili korisnosti ili sreće? 861 00:51:53,208 --> 00:51:56,308 Pitanje broj jedan. 862 00:51:56,309 --> 00:51:58,449 Drugi su rekli, lutrija bi činila razliku, fer procedura, 863 00:51:58,449 --> 00:52:00,039 864 00:52:00,039 --> 00:52:05,949 rekao je Matt. 865 00:52:05,949 --> 00:52:08,769 I neki ljudi su naginjali tome. 866 00:52:08,768 --> 00:52:12,188 To nije točno kategorički prigovor, 867 00:52:12,188 --> 00:52:13,828 nego kaže, svi se trebaju računati kao jednaki, 868 00:52:13,829 --> 00:52:16,798 869 00:52:16,798 --> 00:52:18,469 čak iako na koncu jedan može biti žrtvovan za opću dobrobit. 870 00:52:18,469 --> 00:52:20,769 871 00:52:20,768 --> 00:52:23,288 872 00:52:23,289 --> 00:52:26,059 To nam ostavlja još jedno pitanje za istraživanje. 873 00:52:26,059 --> 00:52:29,670 Zašto sporazum o određenoj proceduri, čak i fer proceduri, 874 00:52:29,670 --> 00:52:31,969 875 00:52:31,969 --> 00:52:34,739 opravdava bilo koji rezultat koji proizlazi iz izvođenja te procedure? 876 00:52:34,739 --> 00:52:38,088 877 00:52:38,088 --> 00:52:39,898 Pitanje broj dva. 878 00:52:39,898 --> 00:52:42,398 I pitanje broj tri, 879 00:52:42,398 --> 00:52:45,338 osnovna ideja pristanka. 880 00:52:45,338 --> 00:52:48,528 Kathleen nas je navela na to. 881 00:52:48,528 --> 00:52:52,719 Da se mali od palube složio samovoljno, a ne pod pritiskom, 882 00:52:52,719 --> 00:52:54,499 883 00:52:54,498 --> 00:52:57,068 kao ššto je bilo dodano, 884 00:52:57,068 --> 00:53:01,918 onda bi bilo u redu oduzeti mu život da bi se spasili ostali. 885 00:53:01,918 --> 00:53:04,900 Čak je više ljudi prihvatilo tu ideju, 886 00:53:04,900 --> 00:53:06,630 ali iz toga proizlazi treće filozofsko pitanje. 887 00:53:06,630 --> 00:53:08,528 888 00:53:08,528 --> 00:53:11,009 Kakvo je to moralno djelovanje pristanka? 889 00:53:11,009 --> 00:53:12,838 890 00:53:12,838 --> 00:53:14,438 891 00:53:14,438 --> 00:53:16,978 Zašto čin suglasnosti čini takvu moralnu razliku 892 00:53:16,978 --> 00:53:19,188 893 00:53:19,188 --> 00:53:23,818 da jedan čin koji bi bio neispravan, oduzimanje života, 894 00:53:23,818 --> 00:53:25,369 bez suglasnosti je moralno dopustivo uz suglasnost? 895 00:53:25,369 --> 00:53:26,358 896 00:53:26,358 --> 00:53:29,619 897 00:53:29,619 --> 00:53:31,699 Da bismo razmotrili ta tri pitanja morat ćemo čitati neke filozofe, 898 00:53:31,699 --> 00:53:34,108 899 00:53:34,108 --> 00:53:35,728 a od sljedećeg puta počet ćemo čitati Benthama i Johna Stewarta Milla 900 00:53:35,728 --> 00:53:36,939 filozofe utilitarizma. 901 00:53:36,940 --> 00:53:37,720 902 00:53:37,719 --> 00:53:43,798 903 00:53:43,798 --> 00:53:47,298 904 00:53:43,798 --> 00:53:47,298 905 00:53:49,869 --> 00:53:56,869 906 00:54:36,219 --> 00:54:40,269 907 00:54:40,268 --> 00:54:41,678