1 00:00:04,200 --> 00:00:08,240 Pravednost Michael Sandel 2 00:00:08,240 --> 00:00:15,240 Moralna strana ubojstva 3 00:00:33,509 --> 00:00:36,587 Ovo je kolegij o pravednosti i započinjemo jednom pričom. 4 00:00:37,750 --> 00:00:39,735 Pretpostavimo da ste vozač tramvaja 5 00:00:40,179 --> 00:00:43,809 i vaš tramvaj juri tračnicama 90 km na sat, 6 00:00:44,640 --> 00:00:48,741 a na kraju tračnica uočavate pet radnika koji rade na pruzi. 7 00:00:49,390 --> 00:00:52,972 Pokušavate stati, ali ne možete, kočnice vam ne rade. 8 00:00:53,829 --> 00:00:56,077 Očajni ste jer znate 9 00:00:56,780 --> 00:01:01,090 da ako se zaletite u tih pet radnika, svi će poginuti. 10 00:01:01,490 --> 00:01:03,612 Pretpostavimo da to znate sa sigurnošću 11 00:01:05,079 --> 00:01:06,703 i osjećate se bespomoćni 12 00:01:07,420 --> 00:01:12,550 dok ne primijetite sporedni kolosijek s desne strane 13 00:01:13,170 --> 00:01:18,039 a na kraju tog kolosijeka je jedan radnik koji radi na pruzi. 14 00:01:19,079 --> 00:01:25,326 Vaš upravljač radi pa možete skrenuti tramvaj, ako želite, 15 00:01:26,010 --> 00:01:27,912 na sporedni kolosijek, 16 00:01:28,680 --> 00:01:31,751 i tako ubiti jednog radnika, ali poštedivši petoricu. 17 00:01:33,269 --> 00:01:35,199 Evo našeg prvog pitanja. 18 00:01:35,929 --> 00:01:37,809 Kako ispravno postupiti? 19 00:01:38,819 --> 00:01:40,478 Što biste vi učinili? 20 00:01:40,638 --> 00:01:42,030 Hajde da provedemo anketu. 21 00:01:42,470 --> 00:01:47,700 Koliko bi vas skrenulo tramvaj na sporedni kolosijek? 22 00:01:47,850 --> 00:01:49,030 Dignite ruke. 23 00:01:52,019 --> 00:01:55,330 Koliko vas ne bi? Koliko bi vas nastavilo ravno naprijed? 24 00:01:57,650 --> 00:02:00,630 Ostavite podignute ruke, oni koji bi išli ravno naprijed. 25 00:02:04,049 --> 00:02:07,334 Šačica ljudi bi, velika većina bi skrenula. 26 00:02:08,048 --> 00:02:09,548 Da čujemo prvo ... 27 00:02:09,878 --> 00:02:15,039 Sada moramo istražiti razloge zašto mislite da je to ispravno učiniti. 28 00:02:15,089 --> 00:02:20,769 Počnimo s većinom, koja bi skrenula na sporedni kolosijek. 29 00:02:21,798 --> 00:02:23,409 Zašto bi to učinili? 30 00:02:23,669 --> 00:02:25,241 Koji bi bio vaš razlog? 31 00:02:25,688 --> 00:02:28,569 Tko bi nam iznio svoj razlog? 32 00:02:29,808 --> 00:02:31,838 Samo naprijed, ustanite. 33 00:02:32,218 --> 00:02:37,916 Zato jer ne može biti ispravno ubiti petoro kad možete ubiti jednoga, umjesto toga. 34 00:02:39,579 --> 00:02:43,981 Ne bi bilo u redu ubiti petoricu, ako možete ubiti samo jednog umjesto toga. 35 00:02:46,748 --> 00:02:48,208 To je dobar razlog. 36 00:02:52,959 --> 00:02:53,778 Tko još? 37 00:02:53,848 --> 00:02:56,658 Da li se svi slažu s tim razlogom? 38 00:02:59,228 --> 00:03:00,078 Izvolite. 39 00:03:01,218 --> 00:03:07,400 Mislim da je to isti razlog zbog kojeg ljude koji su u 9/11 spustili avion 40 00:03:07,533 --> 00:03:09,309 u polje u Pennsilvaniji, smatramo herojima 41 00:03:09,399 --> 00:03:15,035 jer su odabrali da ubiju ljude u avionu, a ne puno više ljudi u velikim zgradama. 42 00:03:15,909 --> 00:03:20,650 Znači, princip je bio isti u 9/11, tragična okolnost, 43 00:03:21,379 --> 00:03:24,593 bolje ubiti jednoga da bi petorica preživjela? 44 00:03:25,359 --> 00:03:28,220 Je li to razlog za većinu vas koji bi skrenuli? 45 00:03:30,428 --> 00:03:34,598 Da čujemo sada one koji su u manjini, 46 00:03:35,508 --> 00:03:37,217 one koji ne bi skrenuli. 47 00:03:40,558 --> 00:03:44,966 Mislim da je to ista vrsta mentaliteta koja opravdava genocid i totalitarizam, 48 00:03:45,206 --> 00:03:49,156 kako bi spasili jednu naciju, istrebljujete drugu. 49 00:03:50,189 --> 00:03:52,538 Pa što bi vi učinili u tom slučaju? 50 00:03:53,038 --> 00:04:00,098 Kako bi izbjegli užase genocida, vi bi se zaletili u petoricu i ubili ih? 51 00:04:03,389 --> 00:04:05,018 Po svoj prilici, da. 52 00:04:07,408 --> 00:04:08,787 Dobro, tko još? 53 00:04:09,930 --> 00:04:11,908 To je hrabar odgovor, hvala. 54 00:04:13,348 --> 00:04:17,917 Razmotrimo drugi slučaj s tramvajem 55 00:04:20,078 --> 00:04:25,338 i pogledajmo da li se, oni od vas koji su u većini, 56 00:04:27,428 --> 00:04:29,864 i dalje žele držati tog principa, 57 00:04:30,990 --> 00:04:33,329 bolje da umre jedan, kako bi petorica preživjela. 58 00:04:33,500 --> 00:04:36,743 Ovaj puta vi niste vozač tramvaja, nego promatrač. 59 00:04:37,998 --> 00:04:41,231 Stojite na mostu iznad tramvajske pruge, 60 00:04:42,678 --> 00:04:44,898 a prugom se približava tramvaj. 61 00:04:45,658 --> 00:04:47,830 Na kraju pruge nalazi se 5 radnika, 62 00:04:49,620 --> 00:04:51,329 kočnice ne rade, 63 00:04:51,738 --> 00:04:55,453 tramvaj samo što nije naletio na petoricu i ubio ih. 64 00:04:55,949 --> 00:05:00,238 A sada, vi niste vozač i zaista se osjećate bespomoćni. 65 00:05:01,309 --> 00:05:04,263 Dok ne primijetite da pokraj vas stoji 66 00:05:06,499 --> 00:05:09,373 naginjući se preko ograde mosta, 67 00:05:09,889 --> 00:05:12,210 jedan vrlo debeli čovjek. 68 00:05:17,398 --> 00:05:20,874 I mogli biste ga malo pogurnuti 69 00:05:22,668 --> 00:05:25,752 on bi pao s mosta na tračnice 70 00:05:27,949 --> 00:05:31,198 točno ispred tramvaja, 71 00:05:32,199 --> 00:05:35,483 on bi poginuo, ali bi spasio petoricu. 72 00:05:38,798 --> 00:05:43,563 Koliko vas bi gurnulo debelog čovjeka s mosta? Dignite ruke. 73 00:05:48,089 --> 00:05:49,532 Koliko vas ne bi? 74 00:05:50,859 --> 00:05:52,489 Većina ljudi ne bi. 75 00:05:53,849 --> 00:05:55,337 Postavlja se očito pitanje, 76 00:05:55,788 --> 00:05:58,075 što se dogodilo s principom, 77 00:05:59,878 --> 00:06:03,739 bolje spasiti pet života, čak i po cijenu žrtvovanja jednog, 78 00:06:03,839 --> 00:06:08,279 što je s principom koji su skoro svi podržali u prvom slučaju? 79 00:06:09,240 --> 00:06:12,809 Želio bih čuti nekoga iz većine u oba slučaja. 80 00:06:13,349 --> 00:06:16,287 Kako objašnjavate razliku između ta dva slučaja? 81 00:06:18,629 --> 00:06:23,460 Mislim da drugi uključuje aktivni izbor da se osobu gurne. 82 00:06:24,279 --> 00:06:29,736 Mislim da se, u suprotnom, ta osoba sama ne bi uplela u tu situaciju, 83 00:06:29,829 --> 00:06:32,609 pa birati u njegovo ime 84 00:06:36,119 --> 00:06:39,340 da ga se uključi u nešto što bi u protivnom izbjegao, 85 00:06:39,990 --> 00:06:42,788 mislim da je više od onog što imate u prvoj situaciji 86 00:06:42,830 --> 00:06:49,828 gdje tri strane, vozač i dvije grupe radnika već jesu u toj situaciji. 87 00:06:50,598 --> 00:06:54,239 Ali momak koji radi na sporednom kolosijeku, 88 00:06:55,108 --> 00:06:59,208 on nije odabrao da žrtvuje svoj život ništa više od debelog čovjeka, zar ne? 89 00:07:02,069 --> 00:07:04,570 To je istina, ali bio je na pruzi. 90 00:07:05,339 --> 00:07:07,409 Ovaj momak je bio na mostu! 91 00:07:10,439 --> 00:07:12,570 Možete nastaviti ako želite. 92 00:07:13,550 --> 00:07:15,159 Dobro, to je teško pitanje. 93 00:07:15,329 --> 00:07:18,298 Bili ste dobri, jako dobri, to je teško pitanje. 94 00:07:19,629 --> 00:07:24,470 Tko bi još pokušao naći način za usaglašavanje 95 00:07:26,028 --> 00:07:28,928 reakciju većine u ova dva slučaja? 96 00:07:30,158 --> 00:07:34,190 Pretpostavljam, u prvom slučaju, gdje imate jednog radnika i petoricu, 97 00:07:35,178 --> 00:07:38,549 izbor je između te dvije grupe i morate jednu izabrati 98 00:07:38,549 --> 00:07:41,088 i ljude će poginuti zbog tramvaja, 99 00:07:41,218 --> 00:07:45,029 ne nužno zbog vaše direktne akcije. 100 00:07:45,029 --> 00:07:48,209 Tramvaj je van kontrole i vi u djeliću sekunde morate donijetu određenu odluku, 101 00:07:48,209 --> 00:07:52,658 dok je guranje čovjeka s mosta stvarni čin ubojstva s vaše strane, 102 00:07:52,658 --> 00:07:54,490 nad time imate kontrolu, dok nad tramvajem nemate kontrolu. 103 00:07:54,490 --> 00:07:57,278 104 00:07:57,278 --> 00:08:00,089 Zato mislim da je to malo drugačija situacija. 105 00:08:00,089 --> 00:08:04,359 U redu, tko ima odgovor? 106 00:08:04,360 --> 00:08:06,319 Tko želi odgovoriti? 107 00:08:06,319 --> 00:08:09,490 Je li to pravo objašnjenje? 108 00:08:09,490 --> 00:08:12,439 Ja mislim da to nije baš dobar razlog 109 00:08:12,439 --> 00:08:16,889 jer u oba slučaja morate odlučiti tko će umrijeti 110 00:08:16,889 --> 00:08:18,500 jer ili ćete izabrati da skrenete i ubijete osobu 111 00:08:18,500 --> 00:08:19,718 što je aktivna svjesna odluka da skrenete, 112 00:08:19,718 --> 00:08:21,319 ili ćete izabrati da gurnete deebelog čovjeka, što je također aktivni svjesni čin. 113 00:08:21,319 --> 00:08:23,609 114 00:08:23,608 --> 00:08:27,688 Dakle u oba slučaja radite izbor. 115 00:08:27,689 --> 00:08:29,729 Želite li odgovoriti? 116 00:08:29,728 --> 00:08:34,189 Nisam baš siguran da je tako, još uvijek mi se čini da je drrugačije, 117 00:08:34,190 --> 00:08:38,230 time što ste nekoga bacili na tračnice i ubili ga, 118 00:08:38,230 --> 00:08:42,600 vi ste ga ustvari sami ubili. 119 00:08:42,600 --> 00:08:43,710 Gurate ga, vlastitim rukama. 120 00:08:43,710 --> 00:08:47,090 Gurate ga, a to je drugačije od upravljanja nečim što će uzrokovati smrt. 121 00:08:47,090 --> 00:08:48,670 122 00:08:48,669 --> 00:08:52,829 To zaista ne zvuči ispravno kad to ovako govorim. 123 00:08:52,830 --> 00:08:54,740 Ne, to je dobro, kako se zovete? 124 00:08:54,740 --> 00:08:55,570 Andrew. 125 00:08:55,740 --> 00:08:59,570 Andrew, dozvoli da te pitam ovo: 126 00:08:59,570 --> 00:09:02,240 Pretpostavimo, 127 00:09:02,240 --> 00:09:03,680 stojeći na mostu kraj tog debelog čovjeka, 128 00:09:03,679 --> 00:09:04,809 129 00:09:04,809 --> 00:09:07,849 ne moram ga gurnuti, 130 00:09:07,850 --> 00:09:14,850 pretpostavimo da stoji na poklopcu koji mogu otvoriti okrećući neki kotač, ovako. 131 00:09:17,450 --> 00:09:18,690 Biste li ga okrenuli? 132 00:09:18,690 --> 00:09:20,960 Zbog nekog razloga to izgleda još više pogrešno. 133 00:09:20,960 --> 00:09:24,129 134 00:09:24,129 --> 00:09:30,350 Mislim, možda ako bi se slučajno naslonili na taj kotač ili tako nešto. 135 00:09:30,350 --> 00:09:31,060 136 00:09:31,059 --> 00:09:33,118 Ili recimo da tramvaj leti prema sklopci koja će otvoriti poklopac, 137 00:09:33,119 --> 00:09:37,850 onda bih se mogao složiti s tim. 138 00:09:37,850 --> 00:09:39,230 139 00:09:39,850 --> 00:09:42,230 Pošteno, to još uvijek izgleda pogrešno 140 00:09:42,230 --> 00:09:45,500 na način na koji nije izgledalo u prvom slučaju skretanja. 141 00:09:45,500 --> 00:09:50,419 I na još jedan način, u prvoj situaciji vi ste direktno uključeni u situaciju, 142 00:09:50,419 --> 00:09:52,449 u drugoj ste samo promatrač, 143 00:09:52,450 --> 00:09:56,920 pa imate izbor da se uključite ili ne guranjem debelog čovjeka. 144 00:09:56,919 --> 00:09:59,549 Zaboravimo na trenutak na ovaj slučaj. 145 00:09:59,549 --> 00:10:01,269 146 00:10:01,269 --> 00:10:06,460 Zamislimo drugačiji slučaj. Ovaj puta vi ste doktor na hitnoj 147 00:10:06,460 --> 00:10:11,629 i dolazi vam šest pacijenata 148 00:10:11,629 --> 00:10:18,500 koji su stradali u groznoj prometnoj nesreći. 149 00:10:18,500 --> 00:10:23,889 Njih pet zadobilo je srednje teške povrede, 150 00:10:23,889 --> 00:10:27,720 jedan je u kritičnom stanju i trebao bi vam cijeli dan da se pobrinete za njega, 151 00:10:27,720 --> 00:10:32,330 no za to vrijeme onih pet bi moglo umrijeti. 152 00:10:32,330 --> 00:10:35,490 Ili se možete pobrinuti za tu petoricu, ali za to vrijeme onaj kritični bi mogao umrijeti. 153 00:10:35,490 --> 00:10:36,470 154 00:10:36,470 --> 00:10:37,660 Koliko vas bi spasilo petoricu da ste doktor? 155 00:10:37,659 --> 00:10:39,539 156 00:10:39,539 --> 00:10:40,849 157 00:10:40,850 --> 00:10:44,480 Koliko bi vas spasilo jednoga? 158 00:10:44,480 --> 00:10:46,300 Vrlo malo ljudi, samo šačica. 159 00:10:46,299 --> 00:10:49,269 160 00:10:49,269 --> 00:10:51,439 Isti razlog, pretpostavljam? 161 00:10:51,440 --> 00:10:55,570 Jedan život nasuprot pet. 162 00:10:55,570 --> 00:10:57,230 Sada razmotrite slučaj drugog doktora. 163 00:10:57,230 --> 00:10:59,070 164 00:10:59,070 --> 00:11:02,080 Ovaj puta vi ste kirurg za transplantacije, 165 00:11:02,080 --> 00:11:06,160 imate 5 pacijenata i svakom je očajnički nužna transplantacija organa kako bi preživio. 166 00:11:06,159 --> 00:11:09,639 167 00:11:09,639 --> 00:11:12,220 Jednom treba srce, jednom pluća, jednom bubreg, jednom jetra 168 00:11:12,220 --> 00:11:13,550 i petom gušterača. 169 00:11:13,549 --> 00:11:15,089 170 00:11:15,090 --> 00:11:16,680 171 00:11:16,679 --> 00:11:20,209 172 00:11:20,210 --> 00:11:22,780 Ali nemate nijednog darivatelja organa. 173 00:11:22,779 --> 00:11:24,909 Uskoro ćete gledati kako umiru. 174 00:11:24,909 --> 00:11:27,649 175 00:11:27,649 --> 00:11:28,860 A onda vam sine, 176 00:11:28,860 --> 00:11:30,649 177 00:11:30,649 --> 00:11:32,470 da je u sobi do zdravi mladić koji je došao na pregled. 178 00:11:32,470 --> 00:11:35,720 179 00:11:39,450 --> 00:11:43,740 Sviđa vam se to? 180 00:11:43,740 --> 00:11:47,159 181 00:11:47,159 --> 00:11:50,740 I on je zadrijemao, 182 00:11:53,269 --> 00:11:56,769 mogli biste potiho ući, 183 00:11:56,769 --> 00:12:00,600 izvaditi mu pet organa, ta osoba bi umrla, 184 00:12:00,600 --> 00:12:03,170 ali mogli biste spasiti petoricu. 185 00:12:03,169 --> 00:12:10,169 Koliko bi vas to učinilo? Itko? 186 00:12:10,389 --> 00:12:17,389 Koliko? Dignite ruke, ako bi to učinili. 187 00:12:18,100 --> 00:12:21,840 Netko na balkonu? 188 00:12:21,840 --> 00:12:24,280 Vi bi? Budite oprezni, ne naginjite se previše. 189 00:12:26,269 --> 00:12:29,340 Koliko ne bi? 190 00:12:29,340 --> 00:12:30,360 U redu. 191 00:12:30,360 --> 00:12:33,600 Što vi kažete, govorite vi sa balkona koji bi izvadili organe, zašto? 192 00:12:33,600 --> 00:12:35,840 193 00:12:35,840 --> 00:12:38,629 Ja bi zapravo htio razmotriti malo drugačiju mogućnost, 194 00:12:38,629 --> 00:12:40,188 tako da uzmem jednog od onih kojima treba organ, 195 00:12:40,188 --> 00:12:44,419 koji će prvi umrijeti i iskoristio bi njegova četiri zdrava organa 196 00:12:44,419 --> 00:12:50,229 da spasim preostalu četvoricu. 197 00:12:50,230 --> 00:12:54,639 To je prilično dobra ideja. 198 00:12:54,639 --> 00:12:57,830 To je sjajna ideja, 199 00:12:57,830 --> 00:13:00,160 osim činjenice 200 00:13:00,159 --> 00:13:06,159 da ste upravo uništili filozofsku poantu. 201 00:13:06,159 --> 00:13:07,360 Odmaknimo se malo od ovih priča i argumenata. 202 00:13:07,360 --> 00:13:10,240 203 00:13:10,240 --> 00:13:12,750 da uočimo nekoliko stvari u načinu kako su se argumenti počeli razvijati. 204 00:13:12,750 --> 00:13:17,809 205 00:13:17,809 --> 00:13:18,649 Određeni moralni principi već su se počeli pojavljivati 206 00:13:18,649 --> 00:13:20,360 207 00:13:20,360 --> 00:13:23,340 208 00:13:23,340 --> 00:13:25,879 u diskusijama koje smo vodili. 209 00:13:25,879 --> 00:13:27,570 Pa hajde da vidimo koji su to moralni principi. 210 00:13:27,570 --> 00:13:29,740 211 00:13:29,740 --> 00:13:31,250 212 00:13:31,250 --> 00:13:35,710 Prvi moralni princip koji se pojavio u diskusiji kaže 213 00:13:35,710 --> 00:13:39,110 da spravna stvar, moralna stvar koju treba učiniti 214 00:13:39,110 --> 00:13:43,139 ovisi o posljedicama kojima će rezultirati vaše djelovanje. 215 00:13:43,139 --> 00:13:45,480 216 00:13:45,480 --> 00:13:47,080 Na kraju dana, bolje je da prežive petorica 217 00:13:47,080 --> 00:13:49,250 218 00:13:49,250 --> 00:13:52,320 čak i ako jedan mora umrijeti. 219 00:13:52,320 --> 00:13:53,700 To je primjer konsekvencijalnog (posljedičnog) moralnog rasuđivanja. 220 00:13:53,700 --> 00:13:56,280 221 00:13:56,279 --> 00:13:59,459 222 00:13:59,460 --> 00:14:04,310 Konsekvencijalno moralno rasuđivanje locira moralnost u posljedicama nekog čina 223 00:14:04,309 --> 00:14:06,549 u stanju svijeta koji će biti rezultat onoga što učinite. 224 00:14:06,549 --> 00:14:09,049 225 00:14:09,049 --> 00:14:12,789 Ali onda smo otišli malo dalje razmatrajući druge slučajeve 226 00:14:12,789 --> 00:14:15,319 i ljudi nisu baš bili sigurni 227 00:14:15,320 --> 00:14:17,300 u konsekvencijalno moralno rasuđivanje 228 00:14:17,299 --> 00:14:20,529 229 00:14:20,529 --> 00:14:22,419 kad su oklijevali gurnuti debelog čovjeka s mosta 230 00:14:22,419 --> 00:14:24,269 231 00:14:24,269 --> 00:14:25,789 232 00:14:25,789 --> 00:14:28,639 ili iščupati organe nevinog pacijenta. 233 00:14:28,639 --> 00:14:29,750 234 00:14:29,750 --> 00:14:32,259 Ljudi su ukazivali na razloge 235 00:14:32,259 --> 00:14:34,259 236 00:14:34,259 --> 00:14:35,379 povezane s intrinzičnom kvalitetom samog čina. 237 00:14:35,379 --> 00:14:37,250 238 00:14:37,250 --> 00:14:39,230 239 00:14:39,230 --> 00:14:40,690 240 00:14:40,690 --> 00:14:42,770 bez obzira na posljedice. 241 00:14:42,769 --> 00:14:45,179 Ljudi su se opirali, 242 00:14:45,179 --> 00:14:47,819 ljudi su mislili da je to jednostavno pogrešno, kategorički pogrešno, 243 00:14:47,820 --> 00:14:49,480 244 00:14:49,480 --> 00:14:50,500 ubiti osobu, nevinu osobu, čak i u ime spašavanja pet života. 245 00:14:50,500 --> 00:14:51,408 246 00:14:51,408 --> 00:14:53,509 247 00:14:53,509 --> 00:14:54,689 248 00:14:54,690 --> 00:14:55,819 249 00:14:55,818 --> 00:14:58,500 Bar su tako ljudi mislili u drugoj verziji priče koju smo razmatrali. 250 00:14:58,500 --> 00:15:00,610 251 00:15:00,610 --> 00:15:05,120 252 00:15:05,120 --> 00:15:06,519 To ukazuje na drugi kategorički način razmišljanja o moralnom rasuđivanju. 253 00:15:06,519 --> 00:15:09,539 254 00:15:09,539 --> 00:15:10,689 255 00:15:10,690 --> 00:15:12,660 256 00:15:12,659 --> 00:15:14,679 257 00:15:14,679 --> 00:15:16,429 258 00:15:16,429 --> 00:15:22,429 Kategoričko moralno rasuđivanje locira moralnost u određenim apslutnim moralnim uvjetima, 259 00:15:22,429 --> 00:15:24,439 određenim kategoričkim dužnostima i pravima bez obzira na posljedice. 260 00:15:24,440 --> 00:15:27,440 261 00:15:27,440 --> 00:15:29,230 U danima i tjednima pred nama istraživat ćemo razlike između 262 00:15:29,230 --> 00:15:33,070 263 00:15:33,070 --> 00:15:36,540 konsekvencijalnih i kategoričkih moralnih principa. 264 00:15:36,539 --> 00:15:38,370 Najutjecajniji primjer konsekvecijlanog moralnog rasuđivanja utilitarizam, 265 00:15:38,370 --> 00:15:40,419 266 00:15:40,419 --> 00:15:45,919 doktrina koju je razvio Jeremy Bentham, engleski političkii filozof 18. stoljeća. 267 00:15:45,919 --> 00:15:51,099 268 00:15:51,100 --> 00:15:54,139 Najvažniji filozof kategoričkog moralnog rasuđivanja 269 00:15:54,139 --> 00:15:56,850 270 00:15:56,850 --> 00:15:58,170 271 00:15:58,169 --> 00:16:02,589 je Emmanuel Kant, njemački filozof 18. stoljeća. 272 00:16:02,590 --> 00:16:03,860 Stoga ćemo razmotriti ova dva različita načina moralnog rasuđivanja 273 00:16:03,860 --> 00:16:07,259 274 00:16:07,259 --> 00:16:08,299 procijeniti ih i također razmotriti druge. 275 00:16:08,299 --> 00:16:10,669 276 00:16:10,669 --> 00:16:16,099 Ako pogledate nastavni program, primijetit ćete da čitamo niz sjajnih i čuvenih knjiga, 277 00:16:16,100 --> 00:16:18,310 knjige Aristotela, Johna Lockea, Immanuela Kanta, Johna Stewarta Milla i drugih. 278 00:16:18,309 --> 00:16:19,889 279 00:16:19,889 --> 00:16:22,080 280 00:16:22,080 --> 00:16:24,030 281 00:16:24,029 --> 00:16:28,169 Također ćete primijetiti u programu da ne čitamo samo te knjige, 282 00:16:28,169 --> 00:16:30,069 također se bavimo suvremenim političkim i pravnim kontraverzama 283 00:16:30,070 --> 00:16:32,010 284 00:16:32,009 --> 00:16:37,000 koja potiču filozofska pitanja. 285 00:16:37,000 --> 00:16:40,190 Diskutirat ćemo o jednakosti i nejednakosti, 286 00:16:40,190 --> 00:16:41,490 afirmativnu akciju (pozitivnu diskriminaciju), 287 00:16:41,490 --> 00:16:43,698 slobodu govora nasuprot govora mržnje, 288 00:16:43,698 --> 00:16:47,039 istospolne brakove, vojnu obavezu, 289 00:16:47,039 --> 00:16:50,980 spektar praktičnih pitanja. 290 00:16:50,980 --> 00:16:55,350 Zašto? Ne samo da bi oživjeli te apstraktne i daleke knjige, 291 00:16:55,350 --> 00:17:01,040 već da rasvjetlimo, razotkrijemo, kako filozofija utječe na 292 00:17:01,039 --> 00:17:03,519 naše svakidašnje živote, uključujući naše političke živote. 293 00:17:03,519 --> 00:17:05,639 294 00:17:05,640 --> 00:17:07,720 Zato ćemo čitati te knjige i raspravljati o tim pitanjima 295 00:17:07,720 --> 00:17:09,818 i vidjeti kako svaki od njih utječe i rasvjetljava druge. 296 00:17:09,818 --> 00:17:15,480 297 00:17:15,480 --> 00:17:17,599 To može zvučati dosta privlačno, ali ovdje vas moram upozoriti na nešto. 298 00:17:17,599 --> 00:17:19,109 299 00:17:19,109 --> 00:17:22,549 300 00:17:22,549 --> 00:17:25,210 A upozorenje je sljedeće: 301 00:17:25,210 --> 00:17:28,500 čitanje ovih knjiga na ovaj način, 302 00:17:28,500 --> 00:17:31,549 303 00:17:31,549 --> 00:17:34,119 kao vježbu u samo-spoznaji, 304 00:17:34,119 --> 00:17:38,849 čitanje na ovaj način nosi određene rizike, 305 00:17:38,849 --> 00:17:42,119 rizike koji su istovremeno osobni i politički, 306 00:17:42,119 --> 00:17:47,799 rizike koje poznaje svaki student političke filozofije. 307 00:17:47,799 --> 00:17:50,690 Ti rizici proizlaze iz činjenice 308 00:17:50,690 --> 00:17:52,580 da nas filozofija uči i zbunjuje 309 00:17:52,579 --> 00:17:54,220 310 00:17:54,220 --> 00:17:56,400 311 00:17:56,400 --> 00:18:01,390 suočavajući nas s onim što već znamo. 312 00:18:01,390 --> 00:18:03,390 Tu postoji jedna ironija, 313 00:18:03,390 --> 00:18:09,790 teškoća ovog kolegija skriva se u činjenici da vas uči ono što već znate. 314 00:18:09,789 --> 00:18:12,159 To radi uzimajući ono što znamo iz poznatih neupitnih okruženja, 315 00:18:12,160 --> 00:18:16,470 316 00:18:16,470 --> 00:18:20,370 i pretvarajući to u nešto nepoznato. 317 00:18:20,369 --> 00:18:22,389 Na taj način su funkcionirali oni primjeri, 318 00:18:22,390 --> 00:18:23,120 319 00:18:23,119 --> 00:18:29,029 s hipotetičkim pretpostavkama s kojima smo započinjali, mješavinom šaljivog i razboritog. 320 00:18:29,029 --> 00:18:33,940 Jednako tako funkcioniraju i te filozofske knjige. 321 00:18:33,940 --> 00:18:35,640 Filozofija nas otuđuje od poznatog, 322 00:18:35,640 --> 00:18:37,520 323 00:18:37,519 --> 00:18:40,389 ne tako da nam daje nove informacije, 324 00:18:40,390 --> 00:18:41,780 nego pozivajući i provocirajući 325 00:18:41,779 --> 00:18:43,599 326 00:18:43,599 --> 00:18:47,419 novi način gledanja, 327 00:18:47,420 --> 00:18:49,970 ali, i tu postoji rizik, 328 00:18:49,970 --> 00:18:50,720 jednom kada ono poznato postane strano, 329 00:18:50,720 --> 00:18:54,299 330 00:18:54,299 --> 00:18:58,259 nikada više nije potpuno isto. 331 00:18:58,259 --> 00:19:00,210 Samo-spoznaja je kao izgubljena nevinost, 332 00:19:00,210 --> 00:19:03,200 333 00:19:03,200 --> 00:19:04,720 kako god bilo uznemirujuće, kada ju nađete 334 00:19:04,720 --> 00:19:06,029 335 00:19:06,029 --> 00:19:07,289 nikada je više ne možete od-misliti 336 00:19:07,289 --> 00:19:09,720 337 00:19:09,720 --> 00:19:13,390 ili ne-znati. 338 00:19:13,390 --> 00:19:17,259 Ono što čini ovaj poduhvat teškim 339 00:19:17,259 --> 00:19:19,970 ali također intrigantnim, 340 00:19:19,970 --> 00:19:20,880 341 00:19:20,880 --> 00:19:25,400 je to da je moralna i politička filozofija priča 342 00:19:25,400 --> 00:19:29,340 i vi ne znate kuda ta priča vodi, ali ono što znate 343 00:19:29,339 --> 00:19:31,319 je da je to priča o vama. 344 00:19:31,319 --> 00:19:34,480 345 00:19:34,480 --> 00:19:37,079 To su osobni rizici, 346 00:19:37,079 --> 00:19:40,220 a što je s političkim rizicima? 347 00:19:40,220 --> 00:19:43,038 Jedan način predstavljanja kolegija poput ovog 348 00:19:43,038 --> 00:19:44,730 bio bi obečavajući vam da čitanjem ovih knjiga 349 00:19:44,730 --> 00:19:46,460 350 00:19:46,460 --> 00:19:48,069 i diskutiranjem o ovim pitanjima 351 00:19:48,069 --> 00:19:51,769 postat ćete bolji, odgovorniji građani. 352 00:19:51,769 --> 00:19:56,450 Propitivat ćete presumpcije javnih politika, 353 00:19:56,450 --> 00:19:57,289 dorađivati svoje političke prosudbe, 354 00:19:57,289 --> 00:20:02,819 postat ćete učinkovitiji sudionik javnih zbivanja. 355 00:20:02,819 --> 00:20:06,869 Ali to bi bilo nepotpuno i obmanjujuće obećanje. 356 00:20:06,869 --> 00:20:11,489 Politička fizofija uglavnom ne funkcionira na taj način. 357 00:20:11,490 --> 00:20:14,660 Morate dozvoliti mogućnost 358 00:20:14,660 --> 00:20:19,100 da vas politička filozofija može učiniti gorim građaninom, 359 00:20:19,099 --> 00:20:21,969 a ne boljim, 360 00:20:21,970 --> 00:20:23,809 ili barem gorim građaninom prije no što vas učini boljim. 361 00:20:23,809 --> 00:20:25,629 362 00:20:25,630 --> 00:20:27,950 363 00:20:27,950 --> 00:20:30,400 A to je zbog toga jer je filozofija 364 00:20:30,400 --> 00:20:32,620 365 00:20:32,619 --> 00:20:34,709 aktivnost koja udaljava i čak iscrpljuje. 366 00:20:34,710 --> 00:20:36,600 367 00:20:36,599 --> 00:20:37,759 A to vidite vraćajući se Sokratu; 368 00:20:37,759 --> 00:20:39,890 369 00:20:39,890 --> 00:20:42,290 ima jedan dijalog, Gorgija, 370 00:20:42,289 --> 00:20:44,680 u kojem jedan od Sokratovih prijatelja, Kalikle, pokušava odvratiti ga od filozofiranja. 371 00:20:44,680 --> 00:20:45,620 372 00:20:45,619 --> 00:20:47,239 373 00:20:47,240 --> 00:20:49,970 374 00:20:49,970 --> 00:20:54,400 Kalikle kaže Sokratu, 'Filozofija je zgodna igračka, 375 00:20:54,400 --> 00:20:57,980 ako se u nju upuštamo umjereno u primjereno životno doba, 376 00:20:57,980 --> 00:21:03,779 ali ako na njoj ustrajemo više no što treba, ona je apsolutna propast,' 377 00:21:03,779 --> 00:21:06,819 'Poslušaj moj savjet,' kaže Kalikle, 'ostavi se rasprave, 378 00:21:06,819 --> 00:21:08,369 nauči vještine aktivnog života, 379 00:21:08,369 --> 00:21:11,669 380 00:21:11,670 --> 00:21:16,880 neka ti modeli ne budu ti ljudi koji vrijeme provode u tim sitničavim igrama riječi, 381 00:21:16,880 --> 00:21:20,080 već oni koji imaju dobro situiran život i reputaciju i mnoge druge blagodati.' 382 00:21:20,079 --> 00:21:22,319 383 00:21:22,319 --> 00:21:26,808 Kalikle zapravo Sokratu kaže, 384 00:21:26,808 --> 00:21:28,690 'Okani se filozofiranja, uozbilji se, 385 00:21:28,690 --> 00:21:30,549 386 00:21:30,549 --> 00:21:35,169 upiši se u poslovnu školu.' 387 00:21:35,170 --> 00:21:38,300 I Kalikle je bio u pravu. 388 00:21:38,299 --> 00:21:39,690 Bio je u pravu utoliko 389 00:21:39,690 --> 00:21:42,210 što nas filozofija udaljava od konvencija, utvrđenih postavki i prihvaćenih vjerovanja. 390 00:21:42,210 --> 00:21:45,009 391 00:21:45,009 --> 00:21:46,750 392 00:21:46,750 --> 00:21:48,650 To su rizici, osobni i politički, 393 00:21:48,650 --> 00:21:49,970 394 00:21:49,970 --> 00:21:54,089 a unatoč tim rizicima postoji karakteristično odstupanje, 395 00:21:54,089 --> 00:21:57,470 ime tog odstupanja je skepticizam. 396 00:21:57,470 --> 00:21:58,990 To je ideja, ide ovako nekako: 397 00:21:58,990 --> 00:22:03,660 nismo riješili, jednom zauvijek, 398 00:22:03,660 --> 00:22:09,759 ni slučajeve ni principe o kojima smo raspravljali na početku, 399 00:22:09,759 --> 00:22:11,390 a kad Aristotel i Locke i Kant i Mill nisu mogli riješiti ta pitanja nakon svih tih godina, 400 00:22:11,390 --> 00:22:17,220 401 00:22:17,220 --> 00:22:19,589 tko smo mi da mislimo 402 00:22:19,589 --> 00:22:23,730 da ih mi, ovdje u Sanders Theatre tijekom jednog semestra možemo riješiti? 403 00:22:23,730 --> 00:22:26,430 404 00:22:26,430 --> 00:22:29,460 Možda je samo stvar u tome da svaka osoba ima vlastite principe 405 00:22:29,460 --> 00:22:33,519 i ništa se više o tome nema za reći, nikakvo rasuđivanje. 406 00:22:33,519 --> 00:22:34,170 407 00:22:34,170 --> 00:22:36,590 408 00:22:36,589 --> 00:22:37,649 To je izbjegavanje. 409 00:22:37,650 --> 00:22:39,440 Izbjegavanje spepticizmom 410 00:22:39,440 --> 00:22:41,279 na što bih ja dao sljedeći odgovor: 411 00:22:41,279 --> 00:22:42,660 412 00:22:42,660 --> 00:22:43,720 Istina, o ovim pitanjima se rspravlja već dugo vremena, 413 00:22:43,720 --> 00:22:47,559 414 00:22:47,559 --> 00:22:49,059 ali sam činjenica da se uvijek iznova pojavljuju i ustraju, 415 00:22:49,059 --> 00:22:52,700 416 00:22:52,700 --> 00:22:54,650 može sugerirati da, iako su u nekom smislu nemoguća, 417 00:22:54,650 --> 00:22:57,169 418 00:22:57,169 --> 00:22:59,800 neizbježna su u drugom, 419 00:22:59,799 --> 00:23:02,299 a razlog zašto su neizbježna. 420 00:23:02,299 --> 00:23:06,500 Razlog zašto su neizbježna je 421 00:23:06,500 --> 00:23:10,069 da mi svakoga dana živimo odgovarajući na ta pitanja. 422 00:23:10,069 --> 00:23:16,129 Zato skepticizam, dizanje ruku i odustajanje od moralnog promišljanja, 423 00:23:16,130 --> 00:23:18,280 nije rješenje. 424 00:23:18,279 --> 00:23:19,990 Immanuel Kant vrlo dobro je opisao problem sa skepticizmom kad je napisao: 425 00:23:19,990 --> 00:23:23,710 426 00:23:23,710 --> 00:23:26,308 'Skepticizam je počivalište za ljudski razum 427 00:23:26,308 --> 00:23:29,099 gdje mo razmišljati o svojim dogmatskim lutanjima, 428 00:23:29,099 --> 00:23:33,069 ali nije mjesto za trajno obitavanje.' 429 00:23:33,069 --> 00:23:35,939 'Jednostavno se pomiriti sa skepticizmom,' pisao je Kant, 430 00:23:35,940 --> 00:23:42,660 'nikada ne može biti dovoljno za prevladavanje nemira razuma.' 431 00:23:42,660 --> 00:23:47,040 Pokušao sam, kroz ove priče i argumente, izložiti neki vid rizika i iskušenja 432 00:23:47,039 --> 00:23:49,898 433 00:23:49,898 --> 00:23:55,589 opasnosti i mogućnosti. 434 00:23:55,589 --> 00:23:58,099 Zaključit ću rekavši: da je cilj ovog kolegija 435 00:23:58,099 --> 00:23:59,629 probuditi nemir razuma i vidjeti kuda bi mogao voditi. 436 00:23:59,630 --> 00:24:02,240 437 00:24:02,240 --> 00:24:04,380 438 00:24:04,380 --> 00:24:11,380 Hvala vam. 439 00:24:15,440 --> 00:24:16,980 U tako očajnoj situaciji morate učiniti ono što morate da bi preživjeli. 440 00:24:16,980 --> 00:24:21,259 Morate učiniti ono što morate? 441 00:24:21,259 --> 00:24:22,779 Što morate, morate, baš tako. 442 00:24:22,779 --> 00:24:23,619 443 00:24:23,619 --> 00:24:25,699 Ako 19 dana niste ništa jeli, netko se mora žrtvovati da ljudi mogu preživjeti. 444 00:24:25,700 --> 00:24:32,700 U redu, dobro je. Kako se zovete? 445 00:24:33,569 --> 00:24:40,349 Marcus. 446 00:24:40,349 --> 00:24:44,569 Što ćete kazati Marcusu? 447 00:24:44,569 --> 00:24:46,960 Prošli puta samo započeli s nekim pričama, 448 00:24:46,960 --> 00:24:48,980 moralnim dilemama u vezi tramvaja. 449 00:24:48,980 --> 00:24:51,019 450 00:24:51,019 --> 00:24:53,049 451 00:24:53,049 --> 00:24:54,509 i doktora i zdravih pacijenata u opasnosti da budu žrtve transplantacije organa. 452 00:24:54,509 --> 00:24:56,269 453 00:24:56,269 --> 00:24:57,559 454 00:24:57,559 --> 00:25:00,909 455 00:25:00,910 --> 00:25:04,090 Uočili smo dvije stvari u vezi diskusija koje smo imali 456 00:25:04,089 --> 00:25:06,889 457 00:25:06,890 --> 00:25:10,830 Jedna se odnosi na način na koji smo diskutirali; 458 00:25:10,829 --> 00:25:13,569 počelo s našim ocjenama u danim slučajevima. 459 00:25:13,569 --> 00:25:18,470 Pokušali smo artikulirati razloge odnosno principe 460 00:25:18,470 --> 00:25:22,549 koji leže iza naših ocjena, 461 00:25:22,549 --> 00:25:25,399 a onda, suočeni s drugim slučajem našli smo se da preispitujemo te principe 462 00:25:25,400 --> 00:25:30,759 463 00:25:30,759 --> 00:25:34,019 mijenjajući ih u ovisnosti o drugima. 464 00:25:34,019 --> 00:25:38,920 I primijetili smo ugrađeno nastojanje da ih uskladimo, 465 00:25:38,920 --> 00:25:41,680 naše ocjene danih slučajeva 466 00:25:41,680 --> 00:25:43,940 i principe koje bismo usvojili nakon promišljanja. 467 00:25:43,940 --> 00:25:46,360 468 00:25:46,359 --> 00:25:50,589 Također smo uočili nešto u vezi sadržaja argumenata 469 00:25:50,589 --> 00:25:55,250 koji su se pojavili tokom diskusije. 470 00:25:55,250 --> 00:26:00,859 Primijetili smo da smo ponekad u iskušenju locirati moralnost nekog čina u posljedicama, 471 00:26:00,859 --> 00:26:06,519 u rezultatima, u stanju svijeta koje proizvodi taj čin. 472 00:26:06,519 --> 00:26:09,019 To smo nazvali konsekvencijalnim moralnim rasuđivanjem. 473 00:26:09,019 --> 00:26:11,690 474 00:26:11,690 --> 00:26:13,240 No, primijetili smo također da u nekim slučajevima 475 00:26:13,240 --> 00:26:16,440 476 00:26:16,440 --> 00:26:18,610 nisu dominirali samo rezultati. 477 00:26:18,609 --> 00:26:22,089 478 00:26:22,089 --> 00:26:23,399 Ponekad mnogi od nas su osjećali 479 00:26:23,400 --> 00:26:25,350 480 00:26:25,349 --> 00:26:31,669 da ne samo posljedice, nego i intrinzična karakteristika čina ima moralnu važnost. 481 00:26:31,670 --> 00:26:35,370 482 00:26:35,369 --> 00:26:40,979 Neki ljudi su tvrdili da postoje određene stvari koje su kategorički neispravne, 483 00:26:40,980 --> 00:26:42,579 čak i ako donose dobar rezultat, 484 00:26:42,579 --> 00:26:44,460 485 00:26:44,460 --> 00:26:45,490 čak i ako spašavaju petoro ljudi po cijenu jednog života. 486 00:26:45,490 --> 00:26:47,200 487 00:26:47,200 --> 00:26:49,788 488 00:26:49,788 --> 00:26:52,730 Stoga smo suprotstavili konsekvencijalne moralne principe kategoričkima. 489 00:26:52,730 --> 00:26:54,569 490 00:26:54,569 --> 00:26:58,139 491 00:26:58,140 --> 00:26:59,790 Danas i sljedećih nekoliko dana 492 00:26:59,789 --> 00:27:00,819 493 00:27:00,819 --> 00:27:06,569 preispitat ćemo jednu od najutjecajnijih verzija konsekvencijalne teorije morala, 494 00:27:06,569 --> 00:27:08,839 495 00:27:08,839 --> 00:27:10,970 496 00:27:10,970 --> 00:27:16,329 a to je filozofija utilitarizma. 497 00:27:16,329 --> 00:27:17,429 Jeremy Bentham, engleski politički filozof 18. stoljeća, 498 00:27:17,430 --> 00:27:19,080 499 00:27:19,079 --> 00:27:21,689 500 00:27:21,690 --> 00:27:22,910 prvi je jasno sistematski izložio utilitarističku teoriju morala, 501 00:27:22,910 --> 00:27:26,630 502 00:27:26,630 --> 00:27:28,670 503 00:27:28,670 --> 00:27:32,210 504 00:27:32,210 --> 00:27:36,400 a Benthamova ideja, njegova ključna ideja, 505 00:27:36,400 --> 00:27:38,440 506 00:27:38,440 --> 00:27:42,930 vrlo je jednostavna 507 00:27:42,930 --> 00:27:44,808 i moralno intuitivno vrlo dopadljiva. 508 00:27:44,808 --> 00:27:46,329 509 00:27:46,329 --> 00:27:48,429 510 00:27:48,430 --> 00:27:50,450 Benthamova ideja je sljedeća: 511 00:27:50,450 --> 00:27:51,590 512 00:27:51,589 --> 00:27:54,439 ono što je ispravno učiniti, što je pravedno učiniti, 513 00:27:54,440 --> 00:27:57,799 514 00:27:57,799 --> 00:27:58,819 je maksimizirati korisnost. 515 00:27:58,819 --> 00:28:01,369 516 00:28:01,369 --> 00:28:02,339 517 00:28:02,339 --> 00:28:06,329 Što je mislio pod korisnost? 518 00:28:06,329 --> 00:28:11,490 Pod korisnost je podrazumijevao ravnotežu 519 00:28:11,490 --> 00:28:14,000 ugode i boli, radosti i patnje. 520 00:28:14,000 --> 00:28:16,778 521 00:28:16,778 --> 00:28:18,210 Tako smo došli do principa maksimiziranja korisnosti. 522 00:28:18,210 --> 00:28:19,259 523 00:28:19,259 --> 00:28:22,308 524 00:28:22,308 --> 00:28:24,450 Započeo uočivši da svima nama, 525 00:28:24,450 --> 00:28:26,399 526 00:28:26,398 --> 00:28:27,750 svim ljudskim bićima, 527 00:28:27,750 --> 00:28:31,490 upravljaju dva suverena gospodara, bol i ugoda. 528 00:28:31,490 --> 00:28:34,620 529 00:28:34,619 --> 00:28:37,479 Mi ljudska bića volimo ugodu i ne volimo bol 530 00:28:37,480 --> 00:28:42,308 531 00:28:42,308 --> 00:28:45,839 i zato bismo moralnost morali bazirati 532 00:28:45,839 --> 00:28:49,169 - bez obzira da li se radi o našem vlastitom životu 533 00:28:49,170 --> 00:28:50,490 ili kao zakonodavci ili građani razmišljamo kakav bi trebao biti zakon - 534 00:28:50,490 --> 00:28:52,579 535 00:28:52,579 --> 00:28:57,029 536 00:28:57,029 --> 00:29:02,069 - ispravno je da individualno ili kolektivno djelujemo tako da maksimiziramo 537 00:29:02,069 --> 00:29:05,838 538 00:29:05,838 --> 00:29:07,659 sveopću razinu sreće, 539 00:29:07,660 --> 00:29:11,519 540 00:29:11,519 --> 00:29:15,430 Benthamov utilitarizam se ponekad sažima sloganom: 541 00:29:15,430 --> 00:29:18,870 'najveće dobro za najveći broj'. 542 00:29:18,869 --> 00:29:20,398 S tim osnovnim principom korisnosti pri ruci, 543 00:29:20,398 --> 00:29:22,989 544 00:29:22,990 --> 00:29:26,410 krenimo ga testirati i propitivati kroz još jedan slučaj, 545 00:29:26,410 --> 00:29:28,409 546 00:29:28,409 --> 00:29:30,620 još jednu priču, ali ovoga puta to nije hipotetska priča, 547 00:29:30,619 --> 00:29:32,639 548 00:29:32,640 --> 00:29:34,120 nego priča iz stvarnog života, 549 00:29:34,119 --> 00:29:35,059 slučaj Kraljice protiv Dudley i Stevensa. 550 00:29:35,059 --> 00:29:38,329 551 00:29:38,329 --> 00:29:41,889 To je čuveni britanski pravni spor iz 19. stoljeća 552 00:29:41,890 --> 00:29:44,009 553 00:29:44,009 --> 00:29:47,538 o kojem se mnogo raspravlja na pravnim fakultetima. 554 00:29:47,538 --> 00:29:50,059 Evo što se dogodilo: 555 00:29:50,059 --> 00:29:51,869 - ukratko ću ispričati priču, a onda bih želio čuti kako bi vi presudili 556 00:29:51,869 --> 00:29:54,909 zamiljajući da ste vi porota. 557 00:29:54,910 --> 00:29:57,640 558 00:29:57,640 --> 00:30:04,350 559 00:30:04,349 --> 00:30:06,178 Tadašnja priča u novinama opisala je pozadinu. 560 00:30:06,179 --> 00:30:09,290 561 00:30:09,289 --> 00:30:11,460 Nikada nije bila ispričana tužnija priča o udesu na moru 562 00:30:11,460 --> 00:30:12,789 563 00:30:12,789 --> 00:30:15,288 no što je priča preživjelih sa broda Mignonette. 564 00:30:15,288 --> 00:30:16,240 565 00:30:16,240 --> 00:30:19,109 Brod je potonuo u Južnom Atlantiku 1300 milja od grada Cape. 566 00:30:19,109 --> 00:30:21,789 567 00:30:21,789 --> 00:30:24,000 Imao je četiri člana posade, Dudley je bio kapetan, 568 00:30:24,000 --> 00:30:26,500 569 00:30:26,500 --> 00:30:28,400 Stephens je bio prvi oficir, Brooks je bio mornar. 570 00:30:28,400 --> 00:30:30,220 571 00:30:30,220 --> 00:30:31,279 Sve ljudi odličnog karaktera kako nam govori novinska priča. 572 00:30:31,279 --> 00:30:32,490 573 00:30:32,490 --> 00:30:34,249 574 00:30:34,249 --> 00:30:35,819 575 00:30:35,819 --> 00:30:38,639 Četvrti član posade bio je mali od palube, Richard Parker star 17 godina. 576 00:30:38,640 --> 00:30:40,300 577 00:30:40,299 --> 00:30:42,849 578 00:30:42,849 --> 00:30:44,629 On je bio siroče, nije imao obitelj 579 00:30:44,630 --> 00:30:46,930 580 00:30:46,930 --> 00:30:51,410 i to je bilo njegovo prvo dulje putovanje morem. 581 00:30:51,410 --> 00:30:53,700 Pošao je, kaže novinska priča, unatoč savjetima svojih prijatelja, 582 00:30:53,700 --> 00:30:56,730 583 00:30:56,730 --> 00:31:00,210 pošao je u nadi mladenačke ambicije da će putovanje napraviti od njega čovjeka. 584 00:31:00,210 --> 00:31:03,390 585 00:31:03,390 --> 00:31:05,140 Nažalost, nije mu bilo suđeno. 586 00:31:05,140 --> 00:31:07,780 Činjenice slučaja nisu bile sporne, 587 00:31:07,779 --> 00:31:08,970 val je udario u brod i Mignonette je potonuo. 588 00:31:08,970 --> 00:31:12,000 589 00:31:12,000 --> 00:31:14,859 Četvoro članova posade spasilo se u čamcu za spasavanje. 590 00:31:14,859 --> 00:31:16,199 Jedina hrana koju su imali bile su dvije konzerve konzervirane repe. 591 00:31:16,200 --> 00:31:18,380 592 00:31:18,380 --> 00:31:19,659 593 00:31:19,659 --> 00:31:20,990 594 00:31:20,990 --> 00:31:21,779 595 00:31:21,779 --> 00:31:23,980 Bez pitke vode. 596 00:31:23,980 --> 00:31:26,610 Prva tri dana nisu jeli ništa. 597 00:31:26,609 --> 00:31:30,459 Četvrti dan otvorili su jednu konzervu repe i pjeli je. 598 00:31:30,460 --> 00:31:31,590 599 00:31:31,589 --> 00:31:34,449 Sljedeći dan uhvatili su kornjaču. 600 00:31:34,450 --> 00:31:36,960 Druga konzerva repe i kornjača omogućili su im da prežive 601 00:31:36,960 --> 00:31:38,549 sljedećih nekoliko dana 602 00:31:38,549 --> 00:31:40,058 603 00:31:40,058 --> 00:31:43,069 i onda osam dana nisu jeli ništa. Bez hrane i bez vode. 604 00:31:43,069 --> 00:31:44,038 605 00:31:44,038 --> 00:31:47,069 606 00:31:47,069 --> 00:31:50,069 Zamislite sebe u takvoj situaciji. 607 00:31:50,069 --> 00:31:52,849 Što biste vi učinili? 608 00:31:52,849 --> 00:31:55,119 Evo što su oni učinili. 609 00:31:55,119 --> 00:32:00,969 Mali od palube Parker je sada već ležao na dnu čamca za spasavanje, u ćošku, 610 00:32:00,970 --> 00:32:03,230 jer se bio napio morske vode protivno savjetima ostalih. 611 00:32:03,230 --> 00:32:05,490 612 00:32:05,490 --> 00:32:07,230 Bilo mu je zlo i izgledalo je da umire. 613 00:32:07,230 --> 00:32:10,669 614 00:32:10,669 --> 00:32:14,619 Pa je devetnaestog dana Dudley, kapetan, predložio da izvlače slamku, 615 00:32:14,618 --> 00:32:17,349 da bi trebali vući slamke da vide tko bi trebao umrijeti da spasi ostale. 616 00:32:17,349 --> 00:32:18,759 617 00:32:18,759 --> 00:32:19,619 618 00:32:19,619 --> 00:32:20,859 619 00:32:20,859 --> 00:32:24,079 620 00:32:24,079 --> 00:32:25,210 Brooks je odbio, nije mu se sviđala ideja o lutriji. 621 00:32:25,210 --> 00:32:26,539 622 00:32:26,539 --> 00:32:29,139 623 00:32:29,140 --> 00:32:30,619 Ne znamo je li to bilo zbog toga jer nije želio riskirati 624 00:32:30,618 --> 00:32:35,999 ili jer je vjerovao u kategoričke moralne principe. 625 00:32:35,999 --> 00:32:36,870 626 00:32:36,869 --> 00:32:38,619 No, u svakom slučaju, slamke se nisu izvlačile. 627 00:32:38,619 --> 00:32:42,129 628 00:32:42,130 --> 00:32:43,230 Sljedeći dan još uvijek nije bilo nijednog broda na vidiku 629 00:32:43,230 --> 00:32:45,028 630 00:32:45,028 --> 00:32:48,470 pa je Dudley rekao Brooksu da okrene glavu 631 00:32:48,470 --> 00:32:50,720 i dao znak Stephensu da bi bilo bolje da ubiju dječaka Parkera. 632 00:32:50,720 --> 00:32:53,929 633 00:32:53,929 --> 00:32:55,850 Dudley se pomolio, rekao dječaku da je kucnuo njegov čas 634 00:32:55,849 --> 00:32:58,480 635 00:32:58,480 --> 00:33:00,679 te ga usmrtio perorezom ubadajaći ga u vratnu venu. 636 00:33:00,679 --> 00:33:03,900 637 00:33:03,900 --> 00:33:09,750 Brooks se oporavio od svog prigovora savjesti kako bi sudjelovao u podjeli jezive blagodati. 638 00:33:09,750 --> 00:33:11,029 Četiri dana su se njih trojica hranila tijelom i krvlju malog od palube. 639 00:33:11,029 --> 00:33:15,230 640 00:33:15,230 --> 00:33:17,220 Istinita priča. 641 00:33:17,220 --> 00:33:19,390 I onda su bili spašeni. 642 00:33:19,390 --> 00:33:22,840 Dudley opisuje njihovo spašavanje u svom dnevniku; 643 00:33:22,839 --> 00:33:24,678 644 00:33:24,679 --> 00:33:27,570 zapanjujućim eufemizmom, citiram: 645 00:33:27,569 --> 00:33:29,648 '24-tog dana dok smo doručkovali konačno se pojavio brod.' 646 00:33:29,648 --> 00:33:34,750 647 00:33:34,750 --> 00:33:38,599 648 00:33:38,599 --> 00:33:44,309 Trojicu preživjelih pokupio je njemački brod i odveo natrag u Falmouth u Engleskoj 649 00:33:44,309 --> 00:33:47,079 gdje su uhapšeni i suđeni. 650 00:33:47,079 --> 00:33:47,829 Brooks je postao zaštićeni svjedok, Dudley i Stephensu se sudilo. 651 00:33:47,829 --> 00:33:49,949 652 00:33:49,950 --> 00:33:54,450 Oni nisu osporavali činjenice, tvrdili su da su postupali u krajnjoj nuždi. 653 00:33:54,450 --> 00:33:55,390 654 00:33:55,390 --> 00:33:58,140 655 00:33:58,140 --> 00:33:59,430 To je bila njihova obrana. 656 00:33:59,430 --> 00:34:01,220 Tvrdili su u suštini da je bolje da jedan umre da bi trojica preživjela. 657 00:34:01,220 --> 00:34:03,250 658 00:34:03,250 --> 00:34:06,420 659 00:34:06,420 --> 00:34:08,619 Tužilac nije bio uvjeren ovim argumentom, rekao je da je ubojstvo, ubojstvo 660 00:34:08,619 --> 00:34:10,849 661 00:34:10,849 --> 00:34:12,509 662 00:34:12,509 --> 00:34:16,429 i tako je slučaj dospio pred sud. 663 00:34:16,429 --> 00:34:19,489 Zamislite da ste vi porota, 664 00:34:19,489 --> 00:34:21,989 a da bismo pojednostavili diskusiju, 665 00:34:21,989 --> 00:34:23,010 ostavite po strani pitanje zakona i pretpostavimo da ste vi kao porota 666 00:34:23,010 --> 00:34:25,879 667 00:34:25,878 --> 00:34:28,278 zaduženi da odlučite da li je ono što su učinili moralno dopustivo ili nije. 668 00:34:28,278 --> 00:34:31,009 669 00:34:31,009 --> 00:34:34,378 670 00:34:34,378 --> 00:34:36,608 Koliko bi vas glasalo 'nisu krivi', 671 00:34:36,608 --> 00:34:39,808 672 00:34:39,809 --> 00:34:46,809 da je ono što su učinili moralno dopustivo? 673 00:34:49,528 --> 00:34:51,639 A koliko bi vas glasalo 'krivi', ono što su učinili je moralno neispravno? 674 00:34:51,639 --> 00:34:54,858 675 00:34:54,858 --> 00:34:57,998 Prilično znatna većina. 676 00:34:57,998 --> 00:35:03,808 Da vidimo sada razloge, a započet ću s onima u manjini. 677 00:35:03,809 --> 00:35:07,739 Da čujemo prvo obranu Dudleya i Stephensa. 678 00:35:07,739 --> 00:35:10,099 679 00:35:10,099 --> 00:35:14,160 Zašto bi ih oslobodili krivnje? 680 00:35:14,159 --> 00:35:17,989 Koji su vaši razlozi? 681 00:35:17,989 --> 00:35:20,798 Mislim da to zaslužuje moralnu osudu, 682 00:35:20,798 --> 00:35:24,349 ali također da postoji razlika između moralno nedopustivog 683 00:35:24,349 --> 00:35:26,609 i onog što nekog čini pravno odgovornim. 684 00:35:26,608 --> 00:35:30,690 Drugim riječima, kao što je rekao sudac, nemoralno nije nužno protiv zakona, 685 00:35:30,690 --> 00:35:34,789 pa iako ne mislim da nužnost opravdava krađu ili ubojstvo ili bilo koji nezakoniti čin, 686 00:35:34,789 --> 00:35:36,169 687 00:35:36,168 --> 00:35:38,578 688 00:35:38,579 --> 00:35:43,509 u nekom času stupanj nužnosti ustvari vas oslobađa krivnje. 689 00:35:43,509 --> 00:35:45,849 690 00:35:45,849 --> 00:35:50,588 Drugi branitelji, drugi glasovi u obrani? 691 00:35:50,588 --> 00:35:53,038 Moralna opravdanja za ono što su učinili? 692 00:35:53,039 --> 00:35:56,989 693 00:35:56,989 --> 00:35:57,619 694 00:35:57,619 --> 00:35:58,798 695 00:35:58,798 --> 00:35:59,570 Meni se čini u tako očajnoj situaciji morate činiti ono što morate kako bi preživjeli. 696 00:35:59,570 --> 00:36:03,139 697 00:36:03,139 --> 00:36:04,679 Morate učiniti ono što morate? 698 00:36:04,679 --> 00:36:06,789 Morate učiniti što morate, tako je. 699 00:36:06,789 --> 00:36:07,849 Ako ste izdržali 19 dana bez hrane 700 00:36:07,849 --> 00:36:09,899 701 00:36:09,898 --> 00:36:14,710 netko se jednostavno mora žrtvovati da ljudi mogu preživjeti. 702 00:36:14,710 --> 00:36:16,139 I štoviše, recimo da su preživjeli i postali produktivni članovi društva 703 00:36:16,139 --> 00:36:21,299 koji odu kući i, na primjer, dobrotvorne organizacije i svašta drugo za opću dobrobit. 704 00:36:21,300 --> 00:36:26,230 705 00:36:26,230 --> 00:36:28,519 Ja ne znam što su oni radili poslije, možda su ubili još ljudi ... 706 00:36:28,519 --> 00:36:30,478 707 00:36:30,478 --> 00:36:32,889 708 00:36:32,889 --> 00:36:35,708 Što ako su otišli kući i postali ubojice? 709 00:36:35,708 --> 00:36:38,908 Što ako su otišli kući i postali ubojice? 710 00:36:38,909 --> 00:36:42,878 Ne biste željeli znati koga su ubili? 711 00:36:42,878 --> 00:36:45,848 Istina, to je fer. 712 00:36:45,849 --> 00:36:49,609 Ne bih želio znati koga su ubili. 713 00:36:49,608 --> 00:36:50,708 Dobro je, kako se zovete? Marcus. 714 00:36:50,708 --> 00:36:52,489 Čuli smo obranu, par glasova u obrani, 715 00:36:52,489 --> 00:36:54,050 716 00:36:54,050 --> 00:36:55,660 sada treebamo čuti tužiteljstvo. 717 00:36:55,659 --> 00:36:57,298 718 00:36:57,298 --> 00:36:59,338 Većina ljudi misli da je ono što su učinili neispravno, Zašto? 719 00:36:59,338 --> 00:37:05,068 720 00:37:05,068 --> 00:37:09,898 Jedna od prvih stvari koju sam ja pomislila bilo je, 721 00:37:09,898 --> 00:37:11,409 'Pa, dobro, nisu jako dugo jeli, 722 00:37:11,409 --> 00:37:12,469 pa su možda mentalno oštećeni 723 00:37:12,469 --> 00:37:15,139 724 00:37:15,139 --> 00:37:16,408 pa se to može iskoristiti za obranu, mogući argument 725 00:37:16,409 --> 00:37:20,619 726 00:37:20,619 --> 00:37:24,179 da nisu bili prisebni i donosili su odluke koje inače ne bi, 727 00:37:24,179 --> 00:37:28,519 a ako je to prihvatljiv argument, 728 00:37:28,518 --> 00:37:33,608 da morate biti u stanju promijenjene svijesti da bi učinili tako nešto, 729 00:37:33,608 --> 00:37:36,108 to navodi da ljudi koji taj argument smatraju uvjerljivim 730 00:37:36,108 --> 00:37:40,088 zaista misle da postupaju nemoralno ... 731 00:37:40,088 --> 00:37:41,248 Ali ja želim znati što vi mislite. Vi ih branite ... 732 00:37:45,548 --> 00:37:49,449 Vi ste za to da budu optuženi, zar ne? 733 00:37:49,449 --> 00:37:51,088 Ja ne mislim da su postupali na moralno prihvatljiv način ... 734 00:37:51,088 --> 00:37:52,909 A zašto ne? Što kažete ... Tu je Marcus, on ih je upravo branio. 735 00:37:52,909 --> 00:37:53,880 On je rekao, čuli ste što je rekao, 736 00:37:53,880 --> 00:37:55,249 737 00:37:55,248 --> 00:37:56,558 738 00:37:56,559 --> 00:38:00,119 da morate učiniti ono što morate u takvoj situaciji. 739 00:38:00,119 --> 00:38:04,789 Što ćete mu odgovoriti? 740 00:38:04,789 --> 00:38:06,439 741 00:38:06,438 --> 00:38:13,438 Da ne postoji situacija u kojoj bi ljudima bilo dozvoljeno da uzmu 742 00:38:13,579 --> 00:38:17,959 ideju sudbine ili živote drugih ljudi u svoje ruke, 743 00:38:17,958 --> 00:38:19,328 da mi nemamo tu vrstu moći. 744 00:38:19,329 --> 00:38:21,399 Dobro, u redu, hvala. Kako se vi zovete? 745 00:38:21,398 --> 00:38:24,130 Britt. 746 00:38:24,130 --> 00:38:24,548 Tko još? 747 00:38:24,548 --> 00:38:26,028 Što vi kažete? Ustanite. 748 00:38:26,028 --> 00:38:28,159 Pitam se da li su Dudley i Stephens tražili Parkerov pristanak na umiranje. 749 00:38:28,159 --> 00:38:35,159 750 00:38:35,429 --> 00:38:37,568 I da li bi ih to oslobodilo krivnje za aktivno ubojstvo? 751 00:38:37,568 --> 00:38:41,228 752 00:38:41,228 --> 00:38:45,448 I ako je tako, da li je to još uvijek moralno opravdano? 753 00:38:45,449 --> 00:38:51,720 Zanimljivo, pristanak. Čekajte, kako se vi zovete? 754 00:38:51,719 --> 00:38:56,088 Kathleen. 755 00:38:56,088 --> 00:38:56,619 Kathleen kaže, pretpostavimo ... 756 00:38:56,619 --> 00:39:00,410 Kako bi izgledao taj scenario? 757 00:39:00,409 --> 00:39:02,608 Tu je Dudley, perorez u ruci, ali umjesto molitve, ili prije molitve, 758 00:39:02,608 --> 00:39:04,588 759 00:39:04,588 --> 00:39:07,599 kaže, 'Parker, bi li smetalo, 760 00:39:07,599 --> 00:39:11,519 mi smo očajno gladni, 761 00:39:11,518 --> 00:39:14,348 - s čim Marcus suosjeća - 762 00:39:14,349 --> 00:39:17,679 763 00:39:17,679 --> 00:39:19,769 očajno smo gladni, 764 00:39:19,768 --> 00:39:22,168 ti ionako nećeš dugo, 765 00:39:22,168 --> 00:39:23,498 - mogao bi biti mučenik - 766 00:39:23,498 --> 00:39:25,748 bili bio mučenik, što misliš o tome, Parker?' 767 00:39:25,748 --> 00:39:29,468 768 00:39:29,469 --> 00:39:33,220 Što mislite, bi li tada bilo moralno opravdano? 769 00:39:33,219 --> 00:39:37,639 770 00:39:37,639 --> 00:39:38,219 Pretpostavimo da Parker, napola pri svijesti, 771 00:39:38,219 --> 00:39:40,168 772 00:39:40,168 --> 00:39:42,498 kaže - ok. 773 00:39:42,498 --> 00:39:47,889 Ne mislim da bi bilo moralno opravdano, ali pitam se ... 774 00:39:47,889 --> 00:39:50,650 Čak i tada, ne bi bilo? 775 00:39:50,650 --> 00:39:52,490 Ne. 776 00:39:52,489 --> 00:39:54,568 Vi mislite da čak i sa njegovim pristankom to ne bi bilo moralno opravdano? 777 00:39:54,568 --> 00:39:56,369 Ima li ljudi koji misle ... 778 00:39:56,369 --> 00:39:57,200 koji žele preuzeti Kathleeninu ideju pristanka 779 00:39:57,199 --> 00:40:01,688 i koji misle da bi to tada bilo moralno opravdano? 780 00:40:01,688 --> 00:40:05,868 Dignite ruke, ako bi bilo? Ako mislite da bi bilo? 781 00:40:05,869 --> 00:40:07,588 To je vrlo zanimljivo. 782 00:40:07,588 --> 00:40:09,168 Zašto bi pristanak predstavljao moralnu razliku? 783 00:40:09,168 --> 00:40:15,888 Zašto bi? 784 00:40:15,889 --> 00:40:18,509 Ja samo mislim ako je to njegova vlastita originalna ideja, 785 00:40:18,509 --> 00:40:20,969 njegova ideja od početka, 786 00:40:20,969 --> 00:40:23,778 onda bi to bila jedina situacija u kojoj bi ja to smatrala prihvatljivim. 787 00:40:23,778 --> 00:40:25,940 Jer na taj način ne možete tvrditi da je bio pod pritiskom. 788 00:40:28,358 --> 00:40:30,579 Zante, tri protiv jednoga ili bilo koji omjer bio. 789 00:40:30,579 --> 00:40:32,759 790 00:40:32,759 --> 00:40:34,070 I mislim ako on odlučuje da daje svoj život, onda je njegova volja da se žrtvuje, 791 00:40:34,070 --> 00:40:38,009 792 00:40:38,009 --> 00:40:42,668 što neki ljudi mogu smatrati vrijednim divljenja, 793 00:40:42,668 --> 00:40:45,449 a drugi se mogu ne slagati s tom odlukom. 794 00:40:45,449 --> 00:40:49,099 Dakle, ako je on nadošao na tu ideju, 795 00:40:49,099 --> 00:40:52,820 to je jedina vrsta pristanka u koju se možemo pouzdati, moralno, 796 00:40:52,820 --> 00:40:55,359 onda bi to bilo u redu? 797 00:40:55,358 --> 00:40:57,268 798 00:40:57,268 --> 00:40:59,788 U protivnom bilo bi to nešto kao iznuđeni pristanak u tim okolnostima, 799 00:40:59,789 --> 00:41:01,469 mislite? 800 00:41:01,469 --> 00:41:05,278 801 00:41:05,278 --> 00:41:07,349 Da li itko misli da čak i Parkerov pristanak 802 00:41:07,349 --> 00:41:10,979 803 00:41:10,978 --> 00:41:13,419 ne bi opravdao njihovo ubojstvo? 804 00:41:13,420 --> 00:41:15,479 805 00:41:15,478 --> 00:41:18,088 Tko tako misli? 806 00:41:18,088 --> 00:41:19,538 Recite nam zašto, ustanite. 807 00:41:19,539 --> 00:41:21,260 Mislim da bi Parker bio ubijen u nadi da će drugi članovi posade biti spašeni, 808 00:41:21,260 --> 00:41:22,319 809 00:41:22,318 --> 00:41:26,558 810 00:41:26,559 --> 00:41:29,250 pa onda nema definitivnog razloga da on bude ubijen 811 00:41:29,250 --> 00:41:31,199 jer ne znate kada će oni biti spašeni. 812 00:41:31,199 --> 00:41:35,809 Pa ako ga ubijete i to bude uzalud, 813 00:41:35,809 --> 00:41:38,039 hoćete li nastaviti ubijati članove posade i na kraju nitko neće ostati? 814 00:41:38,039 --> 00:41:40,309 Jer netko će na koncu umrijeti. 815 00:41:40,309 --> 00:41:44,199 Pa, moralna logika situacije izgleda da je takva. 816 00:41:44,199 --> 00:41:45,829 Da bi oni nadalje odabirali najslabije, jednog po jednog, 817 00:41:45,829 --> 00:41:50,318 818 00:41:50,318 --> 00:41:51,818 dok ne bi bili spašeni. 819 00:41:51,818 --> 00:41:57,679 A u ovom slučaju, na sreću, bili su spašeni kad ih još bar troje bilo živo. 820 00:41:57,679 --> 00:41:58,880 Da je Parker da svoj pristanak, 821 00:41:58,880 --> 00:42:01,298 822 00:42:01,298 --> 00:42:04,068 bili tada bilo u redu ili ne? 823 00:42:04,068 --> 00:42:06,329 Ne, još uvijek ne bi bilo u redu. 824 00:42:06,329 --> 00:42:08,030 Recite nam zašto ne bi bilo u redu? 825 00:42:08,030 --> 00:42:10,028 Prije svega ja vjerujem da je kanibalizam moralno neispravan 826 00:42:10,028 --> 00:42:13,228 827 00:42:13,228 --> 00:42:14,509 i ne biste smjeli jesti ljudsko biće ni u kom slučaju. 828 00:42:14,510 --> 00:42:17,449 829 00:42:17,449 --> 00:42:19,380 Dakle, kanibalizam je moralno nedopušten izvan ... 830 00:42:19,380 --> 00:42:22,400 Dakle, čak i u scenariju u kojem bi se čekalo da netko umre 831 00:42:22,400 --> 00:42:24,568 832 00:42:24,568 --> 00:42:27,018 još uvijek bi to bilo nedopušteno? 833 00:42:27,018 --> 00:42:27,929 Da, za mene osobno. 834 00:42:27,929 --> 00:42:29,739 Čini mi se da to sve ovisi o osobnom moralu. 835 00:42:29,739 --> 00:42:31,199 836 00:42:31,199 --> 00:42:35,288 To je tek moje mišljenje. 837 00:42:35,289 --> 00:42:39,339 Naravno, drugi ljudi se neće složiti ... 838 00:42:39,338 --> 00:42:41,498 Pa da vidimo, da čujemo koja su njihova neslaganja 839 00:42:41,498 --> 00:42:42,639 i onda ćemo vidjeti da li imaju dovoljne razloge da vas razuvjere. 840 00:42:42,639 --> 00:42:44,259 841 00:42:44,259 --> 00:42:46,228 842 00:42:46,228 --> 00:42:48,358 843 00:42:48,358 --> 00:42:50,098 844 00:42:50,099 --> 00:42:53,249 Ima li netko tko bi mogao objasniti, vi koji ste skloni pristanku, 845 00:42:53,248 --> 00:42:57,908 846 00:42:57,909 --> 00:42:59,778 možete li objasniti zašto pristanak čini takvu moralnu razliku. 847 00:42:59,778 --> 00:43:02,028 848 00:43:02,028 --> 00:43:03,358 849 00:43:03,358 --> 00:43:05,650 Što je s idejom lutrije? 850 00:43:05,650 --> 00:43:08,930 Da li se to računa kao pristanak? 851 00:43:08,929 --> 00:43:11,308 Sjetite se, na početku Dudley je predložio lutriju. 852 00:43:11,309 --> 00:43:13,839 Pretpostavimo da su se složili s lutrijom, 853 00:43:13,838 --> 00:43:16,338 854 00:43:16,338 --> 00:43:17,369 855 00:43:17,369 --> 00:43:20,798 koliko vas bi tada reklo, to je bilo u redu. 856 00:43:20,798 --> 00:43:23,929 Pretpostavimo da su vukli slamku, mali od palube je izgubio i priča ide dalje. 857 00:43:23,929 --> 00:43:25,380 858 00:43:25,380 --> 00:43:32,380 Koliko ljudi bi reklo da je bilo moralno dopušteno? 859 00:43:33,199 --> 00:43:37,030 Brojevi rastu kad dodamo lutriju. Da čujemo jednog od vas 860 00:43:37,030 --> 00:43:41,609 za kojega bi lutrija činila moralnu razliku? 861 00:43:41,608 --> 00:43:43,458 Zašto bi? 862 00:43:43,458 --> 00:43:44,739 Mislim da ključni element koji po meni to čini zločinom 863 00:43:44,739 --> 00:43:45,718 864 00:43:45,719 --> 00:43:47,858 865 00:43:47,858 --> 00:43:53,848 je ideja da su oni u jednom času odlučili da su njihovi životi važniji od njegovog, 866 00:43:53,849 --> 00:43:56,609 a mislim da je to zapravo osnova svakog zločina. 867 00:43:56,608 --> 00:43:57,688 To je kao: moje potrebe, moje želje važnije su od tvojih i moje imaju prednost. 868 00:43:57,688 --> 00:44:01,949 A da su imali lutriju gdje su svi suglasni da netko mora umrijeti 869 00:44:01,949 --> 00:44:04,798 870 00:44:04,798 --> 00:44:06,478 871 00:44:06,478 --> 00:44:09,239 to je onda kao da se svi žrtvuju da spase ostale. 872 00:44:09,239 --> 00:44:11,008 873 00:44:11,009 --> 00:44:12,949 Onda bi to bilo u redu? 874 00:44:12,949 --> 00:44:15,880 Malo groteskno, ali ... 875 00:44:15,880 --> 00:44:18,959 Ali moralno prihvatljivo? 876 00:44:18,958 --> 00:44:22,688 Da. 877 00:44:22,688 --> 00:44:25,578 A kako se ti zoveš? 878 00:44:25,579 --> 00:44:27,329 Matt. 879 00:44:27,329 --> 00:44:31,389 Znači Matt ono što tebe muči nije kanibalizam nego izostanak propisanog postupka? 880 00:44:31,389 --> 00:44:34,689 Pretpostavljam da bi se moglo tako reći. 881 00:44:34,688 --> 00:44:38,170 A može li netko, tko se slaže s Mattom 882 00:44:38,170 --> 00:44:40,499 reći malo više o tome zašto bi lutrija, 883 00:44:40,498 --> 00:44:41,378 po vašem mišljenju, činila to moralno dopustivim? 884 00:44:41,378 --> 00:44:43,690 885 00:44:43,690 --> 00:44:47,099 886 00:44:47,099 --> 00:44:50,979 887 00:44:50,978 --> 00:44:55,568 Kako sam ja to prvobitno razumijela, malog od palube nikada nisu konzultirali 888 00:44:55,568 --> 00:44:56,398 889 00:44:56,398 --> 00:45:00,478 o tome da li će mu se ili ne, nešto dogoditi, 890 00:45:00,478 --> 00:45:01,088 čak ni da li će sudjelovati u lutriji, 891 00:45:01,088 --> 00:45:04,420 jednostavno je bilo odlučeno da je on taj koji će umrijeti. 892 00:45:04,420 --> 00:45:08,170 Točno, to se dogodilo u stvarnom slučaju, 893 00:45:08,170 --> 00:45:11,900 ali da je bila lutrija i svi su se složili oko procedure, mislite da bi bilo u redu? 894 00:45:11,900 --> 00:45:13,539 895 00:45:13,539 --> 00:45:16,418 Točno, jer onda svi znaju da će se dogoditi smrt, 896 00:45:16,418 --> 00:45:17,079 dok mali od palube nije znao čak ni da se vodi ta rasprava. 897 00:45:17,079 --> 00:45:18,878 898 00:45:18,878 --> 00:45:21,038 899 00:45:21,039 --> 00:45:21,919 Nije bilo nikakvog upozorenja njemu 900 00:45:21,918 --> 00:45:23,578 da bi znao: 'Hej, ja sam taj koji umire!'. 901 00:45:23,579 --> 00:45:28,829 Dobro, pretpostavimo da se svi slažu s lutrijom, lutrija se održi, 902 00:45:28,829 --> 00:45:35,089 mali od palube gubi, ali se predomisli. 903 00:45:35,088 --> 00:45:40,989 Već ste odlučili, to je kao usmeni ugovor, 904 00:45:40,989 --> 00:45:45,139 ne možete odustati od toga, odluka je donesena. 905 00:45:45,139 --> 00:45:45,999 Da znate da umirete kako bi drugi mogli živjeti vi bi ... 906 00:45:45,998 --> 00:45:47,688 Da je umro netko drugi znate da bi vi konzumirali njega, pa ... 907 00:45:47,688 --> 00:45:51,969 908 00:45:51,969 --> 00:45:57,429 Ali onda bi on mogao reći: 'Znam, ali ja sam izgubio.' 909 00:45:57,429 --> 00:46:01,939 Ja samo mislim da je baš u tome moralni spor, 910 00:46:01,938 --> 00:46:04,298 da nije konzultiran mali od palube i to je najjezivije 911 00:46:04,298 --> 00:46:08,909 da on uopće nije imao pojma što se zbiva. 912 00:46:08,909 --> 00:46:10,599 Da je on znao što se zbiva bilo bi malo razumljivije. 913 00:46:10,599 --> 00:46:13,109 914 00:46:13,108 --> 00:46:14,509 Dobro, sada želim čuti ... 915 00:46:14,510 --> 00:46:17,049 Dakle, postoje neki koji misle 916 00:46:17,048 --> 00:46:18,708 da je to moralno dopustivo, ali samo oko 20% vas 917 00:46:18,708 --> 00:46:24,048 918 00:46:24,048 --> 00:46:26,559 na čelu s Marcusom. 919 00:46:26,559 --> 00:46:28,439 Onda postoje neki koji kažu, 920 00:46:28,438 --> 00:46:30,208 pravi problem ovdje je izostanak suglasnosti, 921 00:46:30,208 --> 00:46:32,838 bilo suglasnosti o lutriji, fer proceduri 922 00:46:32,838 --> 00:46:37,139 ili, Katheenina ideja, suglasnosti u času smrti. 923 00:46:37,139 --> 00:46:38,588 924 00:46:38,588 --> 00:46:39,690 925 00:46:39,690 --> 00:46:40,749 926 00:46:40,748 --> 00:46:42,928 927 00:46:42,929 --> 00:46:45,139 928 00:46:45,139 --> 00:46:48,318 A ako dodamo suglasnost onda je više ljudi sklono žrtvu smatrati moralno opravdanom. 929 00:46:48,318 --> 00:46:49,019 930 00:46:49,019 --> 00:46:51,889 931 00:46:51,889 --> 00:46:54,528 932 00:46:54,528 --> 00:46:56,639 Sada bih na koncu želio čuti one od vas koji misle 933 00:46:56,639 --> 00:46:58,548 934 00:46:58,548 --> 00:47:00,199 da čak i s pristankom, čak i s lutrijom, 935 00:47:00,199 --> 00:47:01,898 936 00:47:01,898 --> 00:47:02,519 čak i s Parkerovim zadnjim promrmljanim riječima suglasnosti, 937 00:47:02,519 --> 00:47:04,579 938 00:47:04,579 --> 00:47:06,950 939 00:47:06,949 --> 00:47:08,018 u zadnjem času, 940 00:47:08,018 --> 00:47:09,179 941 00:47:09,179 --> 00:47:10,838 to biipak bilo neispravno. 942 00:47:10,838 --> 00:47:12,639 I zašto bi to bilo neispravno? 943 00:47:12,639 --> 00:47:14,248 944 00:47:14,248 --> 00:47:16,998 To želim čuti. 945 00:47:16,998 --> 00:47:18,818 Pa, cijelo vrijeme sam naginjala kategoričkom moralnom rasuđivanju 946 00:47:18,818 --> 00:47:22,639 947 00:47:22,639 --> 00:47:25,568 i mislim da postoji mogućnost da bi se složila s idejom lutrije 948 00:47:25,568 --> 00:47:29,608 i da se onda gubitnik ubije sam, 949 00:47:29,608 --> 00:47:31,440 950 00:47:31,440 --> 00:47:32,749 951 00:47:32,748 --> 00:47:33,679 952 00:47:33,679 --> 00:47:37,358 tako da onda to ne bi bio čin ubojstva, no ipak mislim da čak i na taj način 953 00:47:37,358 --> 00:47:42,278 to je pod prisilom. 954 00:47:42,278 --> 00:47:43,338 I također mislim da nema nikakvog kajanja 955 00:47:43,338 --> 00:47:44,909 Kao što Dudley piše u svom dnevniku: 'Jeli smo svoj doručak.' 956 00:47:44,909 --> 00:47:47,659 Izgleda kao da je on kao -Oh, ... 957 00:47:47,659 --> 00:47:51,440 Znate, cijela ideja nevrednovanja tuđeg života. 958 00:47:51,440 --> 00:47:53,639 Eto zbog toga mi se čini da trebam zauzeti kategorički stav. 959 00:47:53,639 --> 00:47:57,969 Želite baciti knjigu na njega? 960 00:47:57,969 --> 00:48:02,298 Zato što se ne kaje i nema osjećaj da je učinio išta loše. 961 00:48:02,298 --> 00:48:06,969 Točno. 962 00:48:06,969 --> 00:48:08,769 Ima li još branitelja 963 00:48:08,768 --> 00:48:13,268 koji kažu da je to jednostavno kategorički neispravno, sa ili bez suglasnosti. 964 00:48:13,268 --> 00:48:17,288 Da, ustanite. Zašto? 965 00:48:17,289 --> 00:48:21,829 Mislim da nesumnjivo, kako je oblikovano naše društvo, ubojstvo je ubojstvo 966 00:48:21,829 --> 00:48:24,780 na svaki način, a naše društvo na ubojstvo gleda uvijek jednako 967 00:48:24,780 --> 00:48:27,119 i mislim da nema razlike u bilo kojem slučaju. 968 00:48:27,119 --> 00:48:30,489 Dobro, da vas pitam nešto? 969 00:48:30,489 --> 00:48:33,028 Tri života su u pitanju, nasuprot jednom, 970 00:48:33,028 --> 00:48:34,509 taj jedan, mali od palube, nije imao nikoga od obitelji, 971 00:48:34,509 --> 00:48:38,739 nitko nije ovisio o njemu, 972 00:48:38,739 --> 00:48:41,418 ova trojica su imala obitelji kod kuće u Engleskoj, ovisili su o njima, 973 00:48:41,418 --> 00:48:43,328 imali su žene i djecu. 974 00:48:43,329 --> 00:48:44,989 Sjetite se Benthama. 975 00:48:44,989 --> 00:48:48,048 Bentham kaže moramo uzeti u obzir dobrobit, korisnost, sreću svakoga. 976 00:48:48,048 --> 00:48:51,288 Moramo sve to zbrojiti, pa onda to nisu samo brojevi tri prema jedan, 977 00:48:51,289 --> 00:48:54,640 978 00:48:54,639 --> 00:48:58,759 to su također svi ti ljudi kod kuće. 979 00:48:58,759 --> 00:49:00,909 Ustvari, londonske novine toga vremena i javno mnijenje suosjećali su s njima, 980 00:49:00,909 --> 00:49:04,248 981 00:49:04,248 --> 00:49:05,478 Dudleyem i Stephensom, 982 00:49:05,478 --> 00:49:07,919 a novine su rekle - da nisu bili motivirani ljubavlju i brigom 983 00:49:07,920 --> 00:49:08,280 984 00:49:08,280 --> 00:49:09,640 985 00:49:09,639 --> 00:49:13,489 za svoje voljene kod kuće sigurno to ne bi bili učinili. 986 00:49:13,489 --> 00:49:15,969 Dobro, ali kako se to razlikuje od ljudi na uglu 987 00:49:15,969 --> 00:49:17,369 988 00:49:17,369 --> 00:49:21,108 koji imaju istu želju da prehrane svoje obitelji? Ja mislim da nema razlike. 989 00:49:21,108 --> 00:49:25,279 Mislim da u svakom slučaju ako ja ubijem vas da bi popravio svoj status, to je ubojstvo 990 00:49:25,280 --> 00:49:28,430 i mislim da to trebamo gledati u istom svjetlu. 991 00:49:28,429 --> 00:49:30,278 Umjesto da kriminaliziramo određene aktivnosti 992 00:49:30,278 --> 00:49:33,760 i neke stvari prikazujemo više nasilne i surovije 993 00:49:33,760 --> 00:49:36,760 kad je u tom istom slučaju to isto, sve je to isti čin 994 00:49:36,760 --> 00:49:40,150 i mentalitet koji ide s ubojstvom, potreba da se nahrane svoje obitelji. 995 00:49:40,150 --> 00:49:43,028 Pretpostavimo da ih nije bilo tri, pretpostavimo da ih je bilo 30, 300. 996 00:49:43,028 --> 00:49:44,608 997 00:49:44,608 --> 00:49:47,358 Jedan život da se spasi tri stotine. 998 00:49:47,358 --> 00:49:48,349 Ili u vrijeme rata, tri tisuće ... 999 00:49:48,349 --> 00:49:49,589 1000 00:49:49,590 --> 00:49:51,039 Ili pretpostavimo da su ulozi čak i veći. 1001 00:49:51,039 --> 00:49:52,778 Pretpostavimo da su ulozi čak i veći. 1002 00:49:52,778 --> 00:49:54,608 Misllim da je to još uvijek ista stvar. 1003 00:49:54,608 --> 00:49:58,108 Mislite li da je Bentham imao krivo kad je rekao da je ispravno postupati tako 1004 00:49:58,108 --> 00:49:58,929 da se zbroji skupna sreća? 1005 00:49:58,929 --> 00:50:02,479 Mislite da nije u pravu? 1006 00:50:02,478 --> 00:50:06,728 Ne mislim da je u krivu, ali mislim da je ubojstvo ubojstvo u svakom slučaju. 1007 00:50:06,728 --> 00:50:09,568 Pa onda Bentham mora biti u krivu! 1008 00:50:09,568 --> 00:50:12,818 Ako ste vi u pravu, on je u krivu! 1009 00:50:12,818 --> 00:50:14,358 Dobro, on je u krivu. 1010 00:50:14,358 --> 00:50:16,389 U redu je, hvala vam, bilo je dobro. 1011 00:50:16,389 --> 00:50:19,728 Odmaknimo se od ove diskusije 1012 00:50:19,728 --> 00:50:23,259 i uočimo koliko smo prigovora čuli u vezi onoga što su činili. 1013 00:50:23,259 --> 00:50:26,048 Čuli smo neke obrane toga što su učinili. 1014 00:50:26,048 --> 00:50:28,509 Obrana se odnosi na potrebu, njihove kobne okolnosti 1015 00:50:28,509 --> 00:50:28,918 1016 00:50:28,918 --> 00:50:32,588 1017 00:50:32,588 --> 00:50:33,409 i, barem implicitno, ideju da su brojevi važni. 1018 00:50:33,409 --> 00:50:36,018 1019 00:50:36,018 --> 00:50:37,858 I ne samo da su važni brojevi, nego su važni i širi učinci, 1020 00:50:37,858 --> 00:50:40,380 1021 00:50:40,380 --> 00:50:43,459 njihove obitelji kod kuće, oni koji ovise o njima. 1022 00:50:43,458 --> 00:50:44,768 Parker je bio siroče, nikome neće nedostajati. 1023 00:50:44,768 --> 00:50:47,978 1024 00:50:47,978 --> 00:50:49,578 Pa, ako sve zbrojite, ako pokušate izračunati 1025 00:50:49,579 --> 00:50:50,829 1026 00:50:50,829 --> 00:50:52,649 1027 00:50:52,648 --> 00:50:53,998 bilancu sreće i patnje, 1028 00:50:53,998 --> 00:50:56,598 1029 00:50:56,599 --> 00:50:58,838 mogli biste imati osnovu da kažete da je ono što su učinili ispravno. 1030 00:50:58,838 --> 00:51:02,768 1031 00:51:02,768 --> 00:51:09,468 Onda smo čuli bar tri različite vrste prigovora. 1032 00:51:09,469 --> 00:51:11,690 Čuli prigovor koji kaže, ono što su učinili kategorički je neispravno, 1033 00:51:11,690 --> 00:51:14,108 upravo ovdje, na kraju, 1034 00:51:14,108 --> 00:51:15,750 1035 00:51:15,750 --> 00:51:17,389 kategorički neispravno. 1036 00:51:17,389 --> 00:51:19,820 Ubojstvo je ubojstvo, uvijek je neispravno, 1037 00:51:19,820 --> 00:51:20,969 čak i ako povećava ukupnu sreću društva. 1038 00:51:20,969 --> 00:51:23,349 1039 00:51:23,349 --> 00:51:25,639 1040 00:51:25,639 --> 00:51:28,499 Kategorički prigovor, 1041 00:51:28,498 --> 00:51:30,738 No, još uvijek nam ostaje istražiti zašto je ubojstvo kategorički neispravno. 1042 00:51:30,739 --> 00:51:32,749 1043 00:51:32,748 --> 00:51:35,448 1044 00:51:35,449 --> 00:51:38,579 Da li je to zato jer čak i mali od palube imaju određena fundamentalna prava? 1045 00:51:38,579 --> 00:51:42,339 1046 00:51:42,338 --> 00:51:44,400 A ako je to razlog, 1047 00:51:44,400 --> 00:51:47,880 odakle proizlaze ta prava ako ne iz ideje veće dobrobiti 1048 00:51:47,880 --> 00:51:53,209 ili korisnosti ili sreće? 1049 00:51:53,208 --> 00:51:56,308 Pitanje broj jedan. 1050 00:51:56,309 --> 00:51:58,449 Drugi su rekli, lutrija bi činila razliku, fer procedura, 1051 00:51:58,449 --> 00:52:00,039 1052 00:52:00,039 --> 00:52:05,949 rekao je Matt. 1053 00:52:05,949 --> 00:52:08,769 I neki ljudi su naginjali tome. 1054 00:52:08,768 --> 00:52:12,188 To nije točno kategorički prigovor, 1055 00:52:12,188 --> 00:52:13,828 nego kaže, svi se trebaju računati kao jednaki, 1056 00:52:13,829 --> 00:52:16,798 1057 00:52:16,798 --> 00:52:18,469 čak iako na koncu jedan može biti žrtvovan za opću dobrobit. 1058 00:52:18,469 --> 00:52:20,769 1059 00:52:20,768 --> 00:52:23,288 1060 00:52:23,289 --> 00:52:26,059 To nam ostavlja još jedno pitanje za istraživanje. 1061 00:52:26,059 --> 00:52:29,670 Zašto sporazum o određenoj proceduri, čak i fer proceduri, 1062 00:52:29,670 --> 00:52:31,969 1063 00:52:31,969 --> 00:52:34,739 opravdava bilo koji rezultat koji proizlazi iz izvođenja te procedure? 1064 00:52:34,739 --> 00:52:38,088 1065 00:52:38,088 --> 00:52:39,898 Pitanje broj dva. 1066 00:52:39,898 --> 00:52:42,398 I pitanje broj tri, 1067 00:52:42,398 --> 00:52:45,338 osnovna ideja pristanka. 1068 00:52:45,338 --> 00:52:48,528 Kathleen nas je navela na to. 1069 00:52:48,528 --> 00:52:52,719 Da se mali od palube složio samovoljno, a ne pod pritiskom, 1070 00:52:52,719 --> 00:52:54,499 1071 00:52:54,498 --> 00:52:57,068 kao ššto je bilo dodano, 1072 00:52:57,068 --> 00:53:01,918 onda bi bilo u redu oduzeti mu život da bi se spasili ostali. 1073 00:53:01,918 --> 00:53:04,900 Čak je više ljudi prihvatilo tu ideju, 1074 00:53:04,900 --> 00:53:06,630 ali iz toga proizlazi treće filozofsko pitanje. 1075 00:53:06,630 --> 00:53:08,528 1076 00:53:08,528 --> 00:53:11,009 Kakvo je to moralno djelovanje pristanka? 1077 00:53:11,009 --> 00:53:12,838 1078 00:53:12,838 --> 00:53:14,438 1079 00:53:14,438 --> 00:53:16,978 Zašto čin suglasnosti čini takvu moralnu razliku 1080 00:53:16,978 --> 00:53:19,188 1081 00:53:19,188 --> 00:53:23,818 da jedan čin koji bi bio neispravan, oduzimanje života, 1082 00:53:23,818 --> 00:53:25,369 bez suglasnosti je moralno dopustivo uz suglasnost? 1083 00:53:25,369 --> 00:53:26,358 1084 00:53:26,358 --> 00:53:29,619 1085 00:53:29,619 --> 00:53:31,699 Da bismo razmotrili ta tri pitanja morat ćemo čitati neke filozofe, 1086 00:53:31,699 --> 00:53:34,108 1087 00:53:34,108 --> 00:53:35,728 a od sljedećeg puta počet ćemo čitati Benthama i Johna Stewarta Milla 1088 00:53:35,728 --> 00:53:36,939 filozofe utilitarizma. 1089 00:53:36,940 --> 00:53:37,720 1090 00:53:37,719 --> 00:53:43,798 1091 00:53:43,798 --> 00:53:47,298 1092 00:53:43,798 --> 00:53:47,298 1093 00:53:49,869 --> 00:53:56,869 1094 00:54:36,219 --> 00:54:40,269 1095 00:54:40,268 --> 00:54:41,678