1 00:00:20,040 --> 00:00:23,040 Pravednost Michael Sandel 2 00:00:23,920 --> 00:00:26,580 Ima li život cijenu? 3 00:00:29,390 --> 00:00:37,510 Prošli puta diskutirali smo o slučaju Karljica protiv Dudleya i Stephensa, 4 00:00:39,400 --> 00:00:43,079 slučaj u čamcu za spasavanje, slučaj kanibalizma na moru, 5 00:00:45,970 --> 00:00:49,620 i imajući na umu argumente slučaja čamca za spasavanje, 6 00:00:49,839 --> 00:00:53,220 argumente za i protiv onoga što su učinili Dudley i Stephens, 7 00:00:54,150 --> 00:01:00,200 vratimo se na utilitarističku filozofiju Jeremya Benthama. 8 00:01:02,060 --> 00:01:04,570 Bentham je rođen u Engleskoj 1748., 9 00:01:04,620 --> 00:01:08,978 sa 12 godina pohađao je Oxford, sa 15 se upisao na pravni fakultet. 10 00:01:09,740 --> 00:01:14,092 Sa 19 primljen je u Odvjetničku komoru, ali nikada se nije bavio pravom, 11 00:01:14,820 --> 00:01:19,816 umjesto toga posvetio je život filozofiji prava i filozofiji morala. 12 00:01:22,170 --> 00:01:26,715 Prošli puta počeli smo razmatrati Benthamovu verziju utilitarizma. 13 00:01:27,690 --> 00:01:30,990 Glavna ideja, sažeto sročena, je ova: 14 00:01:32,780 --> 00:01:37,700 najviši princip morala, bilo osobnog ili političkog morala, 15 00:01:40,529 --> 00:01:43,780 je maksimiziranje općeg dobra 16 00:01:44,000 --> 00:01:46,170 ili kolektivne sreće, 17 00:01:46,560 --> 00:01:49,244 ili ukupne ravnoteže zadovoljstva nad boli 18 00:01:50,070 --> 00:01:53,338 u izrazu maksimizirane korisnosti. 19 00:01:56,150 --> 00:01:59,747 Bentham dolazi do tog principa rasuđujući na sljedeći način: 20 00:02:00,570 --> 00:02:02,650 svima nama upravljaju bol i zadovoljstvo, 21 00:02:03,150 --> 00:02:07,889 oni su naši suvereni gospodari, pa ih svaki moralni sistem mora uzeti u obzir. 22 00:02:08,828 --> 00:02:10,819 Kako ih najbolje uzeti u obzir? 23 00:02:10,999 --> 00:02:12,392 Maksimiziranjem 24 00:02:13,739 --> 00:02:17,999 i to vodi principu 'najvećeg dobra za najveći broj'. 25 00:02:19,004 --> 00:02:21,394 Što bismo točno trebali maksimizirati? 26 00:02:22,749 --> 00:02:24,978 Bentham nam kaže - sreću 27 00:02:25,510 --> 00:02:28,256 ili, preciznije, korisnost. 28 00:02:28,679 --> 00:02:33,439 Maksimiziranje korisnosti nije najvažnije samo za pojedince, već i za zajednice 29 00:02:33,929 --> 00:02:35,460 i zakonodavce. 30 00:02:36,569 --> 00:02:39,239 Na koncu, što je zajednica? - pita Bentham. 31 00:02:41,359 --> 00:02:44,377 To je suma pojedinaca koji je sačinjavaju. 32 00:02:44,779 --> 00:02:47,520 I zbog toga, u odlučivanju o najboljim politikama, 33 00:02:47,650 --> 00:02:51,360 u odlučivanju što bi trebalo biti zakon, u odlučivanju što je pravedno, 34 00:02:52,380 --> 00:02:56,609 građani i zakonodavci bi se trebali zapitati: 35 00:02:56,609 --> 00:03:00,760 Ako zbrojimo sve prednosti ove politike 36 00:03:03,870 --> 00:03:06,447 i oduzmemo sve troškove, 37 00:03:08,829 --> 00:03:11,429 ispravna stvar koju treba učiniti je ona 38 00:03:11,779 --> 00:03:16,665 koja maksimizira saldo sreće nad patnjom. 39 00:03:20,869 --> 00:03:22,629 To znači maksimizirati korisnost. 40 00:03:23,769 --> 00:03:29,498 Danas želim ustanoviti da li se vi slažete s tim ili ne. 41 00:03:30,700 --> 00:03:36,200 A ta utilitarna logika često dolazi pod nazivom analiza troškova i koristi 42 00:03:36,650 --> 00:03:42,429 koju koriste kompanije i vlade cijelo vrijeme. 43 00:03:43,369 --> 00:03:49,578 A ono što ona uključuje je vrednovanje, obično u dolarima, korisnosti, 44 00:03:50,899 --> 00:03:54,797 kao i troškova i prednosti raznih prijedloga. 45 00:03:56,309 --> 00:03:58,529 Nedavno je u Republici Češkoj 46 00:03:58,879 --> 00:04:02,700 predstavljen prijedlog za povećanje trošarine na pušenje. 47 00:04:03,120 --> 00:04:05,980 Philip Morris, duhanska kompanija, 48 00:04:07,679 --> 00:04:10,439 ostvaruje veliku dobit u Republici Češkoj. 49 00:04:10,669 --> 00:04:14,579 Oni su naručili studiju analize troškova i koristi 50 00:04:15,148 --> 00:04:18,068 za pušenje u Republici Češkoj. 51 00:04:18,678 --> 00:04:21,787 I ono što je ustanovila ta studija analize troškova i koristi, 52 00:04:23,550 --> 00:04:29,396 je da vlada ostvaruje dobit zahvaljujući pušenju čeških građana. 53 00:04:30,779 --> 00:04:32,360 Pa, kako ostvaruju dobit? 54 00:04:32,660 --> 00:04:38,519 Istina je da postoje negativni učinci na javne financije češke vlade, 55 00:04:40,000 --> 00:04:45,694 zbog povećanih troškova zdravstva za ljude koji pate od bolesti povezanih s pušenjem, 56 00:04:47,239 --> 00:04:49,799 s druge strane, postoje pozitivni učinci, 57 00:04:50,730 --> 00:04:54,600 a to su, pribrojeni na drugoj strani bilance, 58 00:04:55,379 --> 00:04:59,180 pozitivni učinci su uključivali, najvećim dijelom, razne porezne prihode 59 00:04:59,260 --> 00:05:03,539 koje vlada ostvaruje prodajom duhanskih proizvoda, 60 00:05:03,800 --> 00:05:08,305 no također su uključivali uštede u zdravstvu kad ljudi umiru ranije, 61 00:05:08,910 --> 00:05:12,466 uštede na penzijama - ne morate plaćati penzije tako dugo - 62 00:05:13,339 --> 00:05:17,149 i također uštede na troškovima domova za starije. 63 00:05:19,679 --> 00:05:22,679 I kad su bili sumirani svi troškovi i koristi, 64 00:05:24,064 --> 00:05:27,034 studija Philip Morrisa je ustanovila 65 00:05:27,870 --> 00:05:32,010 da neto dobit javnih financija Republike Češke iznosi 66 00:05:32,610 --> 00:05:35,479 147 milijuna dolara, 67 00:05:36,449 --> 00:05:40,670 a u odnosu na uštede na smještaju i zdravstvenoj skrbi i mirovinama, 68 00:05:41,407 --> 00:05:50,839 vlada uživa uštedu od preko 1200 dolara za svaku osobu koja prerano umre zbog pušenja. 69 00:05:51,919 --> 00:05:53,870 Analiza troškova i koristi. 70 00:05:56,740 --> 00:06:02,289 Oni od vas koji brane utilitarizam mogli bi pomisliti da ovaj test nije fer. 71 00:06:03,389 --> 00:06:09,130 Philip Morris je bio razapet u štampi i objavio je ispriku za ovu bezdušnu kalkulaciju. 72 00:06:10,680 --> 00:06:13,089 Mogli biste reći da je ono što ovdje nedostaje 73 00:06:13,139 --> 00:06:17,252 nešto što utilitaristi mogu lako ugraditi, napose 74 00:06:19,339 --> 00:06:24,160 vrijednost za osobu i obitelji onih koji umiru od raka pluća. 75 00:06:25,599 --> 00:06:27,642 A što je sa vrijednošću života? 76 00:06:29,190 --> 00:06:35,554 Neke analize troškova i koristi sadržavaju mjeru za vrijednost života. 77 00:06:36,809 --> 00:06:40,933 Jedan od najpoznatijih je slučaj Ford Pinto automobila. 78 00:06:41,330 --> 00:06:44,138 Je li itko čitao o tome? To je bilo 1970.-tih. 79 00:06:44,298 --> 00:06:47,499 Sjećate se da je Ford Pinto bio marka automobila? 80 00:06:47,750 --> 00:06:48,639 Itko? 81 00:06:51,029 --> 00:06:54,899 To je bio mali auto, kompakt klase, vrlo popularan, 82 00:06:55,949 --> 00:07:00,849 ali imao je jedan problem, a to je da je rezervoar za gorivo bio straga 83 00:07:01,599 --> 00:07:04,718 i kod udarca u stražnji dio rezervoar bi eksplodirao 84 00:07:07,660 --> 00:07:11,570 i neki ljudi su poginuli, a neki su bili ozbiljno povrijeđeni. 85 00:07:13,749 --> 00:07:18,348 Žrtve tih nesreća tužile su Ford, 86 00:07:18,768 --> 00:07:21,438 a na suđenju se ispostavilo 87 00:07:21,669 --> 00:07:26,710 da je Ford odavno znao za riskantnost rezervoara za gorivo 88 00:07:27,499 --> 00:07:32,169 i da je napravio analizu troškova i koristi kako bi ustanovio da li bi se isplatilo 89 00:07:33,599 --> 00:07:35,833 ugraditi posebni štit 90 00:07:36,090 --> 00:07:39,574 koji bi zaštitio rezervoar i spriječio da eksplodira. 91 00:07:40,490 --> 00:07:42,519 Napravili su analizu troškova i koristi; 92 00:07:42,979 --> 00:07:48,766 cijena dijela koji bi povećao sigurnost Pinta, 93 00:07:50,299 --> 00:07:53,568 izračunali su da iznosi 11 dolara po komadu. 94 00:07:55,939 --> 00:08:01,347 A ovo je analiza troškova i koristi koja se pojavila na suđenju, 95 00:08:02,879 --> 00:08:08,812 11 dolara po komadu za 12,5 milijuna automobila i kamiona 96 00:08:09,670 --> 00:08:15,938 iznosila je ukupno 137 milijuna dolara za povećanje sigurnosti. 97 00:08:17,370 --> 00:08:22,178 A onda su izračunali prednosti ulaganja tog novca u sigurniji auto. 98 00:08:23,300 --> 00:08:28,197 Prebrojali su 180 smrti i pridijelili dolarsku vrijednost: 99 00:08:29,130 --> 00:08:31,079 200 tisuća dolara po jednoj smrti. 100 00:08:32,170 --> 00:08:36,820 180 povreda - 67 tisuća dolara; 101 00:08:37,490 --> 00:08:40,999 i onda troškovi popravka i zamjene za 2000 vozila, 102 00:08:40,999 --> 00:08:44,174 koji bi bili uništeni bez tog zaštitnog dijela, 103 00:08:44,719 --> 00:08:46,875 700 dolara po vozilu. 104 00:08:48,060 --> 00:08:53,690 Tako se pokazalo da bi prednosti iznosile samo 49,5 milijuna 105 00:08:53,930 --> 00:08:56,920 i stoga nisu ugradili tu zaštitu. 106 00:08:57,570 --> 00:09:00,519 Nepotrebno je napominjati, da kad se taj memo 107 00:09:01,700 --> 00:09:06,420 o analizi troškova i koristi kompanije Ford Motor Company pojavio na suđenju, 108 00:09:09,160 --> 00:09:13,220 prenerazio je porotnike, koji su dosudili goleme odštete. 109 00:09:15,950 --> 00:09:20,020 Je li to protuprimjer za utilitarističku ideju izračuna? 110 00:09:20,360 --> 00:09:24,644 Jer Ford je uključio mjeru za vrijednost života. 111 00:09:27,320 --> 00:09:31,940 Tko bi od vas želio braniti analizu troškova i koristi 112 00:09:33,190 --> 00:09:35,120 u ovom očitom protuprimjeru? 113 00:09:35,320 --> 00:09:36,740 Tko ima obranu? 114 00:09:38,520 --> 00:09:43,350 Ili mislite da to u potpunosti ruši cijeli utiilitaristički izračun? 115 00:09:47,410 --> 00:09:50,970 Ja mislim da su opet napravili isti grešku kao u prethodnom slučaju 116 00:09:51,220 --> 00:09:56,116 pridijelivši dolarsku vrijednost ljudskom životu ne uzimajući u obzir stvari poput 117 00:09:56,270 --> 00:10:02,990 patnje i emocionalni gubitak obitelji, koje su izgubile prihode, ali i svoje voljene. 118 00:10:03,860 --> 00:10:06,700 a to vrijedi više od 200 tisuća dolara. 119 00:10:06,820 --> 00:10:08,540 Čekajte, kako se vi zovete? 120 00:10:09,171 --> 00:10:10,177 Julie Roto. 121 00:10:10,480 --> 00:10:15,060 Pa, Julie, 200 tisuća je preniska cifra 122 00:10:15,230 --> 00:10:20,100 jer ne uključuje gubitak voljenih i gubitak svih tih godina života. 123 00:10:21,660 --> 00:10:25,650 Što vi mislite, koji bi broj bio točniji? 124 00:10:26,970 --> 00:10:28,660 Ne vjerujem da mogu dati broj, 125 00:10:28,660 --> 00:10:33,000 mislim da se takva vrsta analize ne bi smjela koristiti u pitanjima ljudskog života. 126 00:10:33,000 --> 00:10:35,639 Mislim da se to ne može izraziti novčano. 127 00:10:36,200 --> 00:10:39,270 Dakle, oni ne samo da su stavili premalu brojku, 128 00:10:39,270 --> 00:10:44,510 kaže Julie, nego su pogriješili uopće stavljajući bilo koji broj. 129 00:10:44,510 --> 00:10:49,540 U redu, da čujemo nekoga tko ... 130 00:10:49,540 --> 00:10:51,860 Morate uzeti u obzir inflaciju? 131 00:10:57,700 --> 00:10:59,130 U redu, pošteno. 132 00:11:00,050 --> 00:11:02,660 Pa koji bi to onda broj sada bio? 133 00:11:02,660 --> 00:11:07,640 To je bilo prije 35 godina. 134 00:11:07,640 --> 00:11:10,330 Dva milijuna dolara? 135 00:11:10,330 --> 00:11:12,030 Vi bi stavili dva milijuna? 136 00:11:12,030 --> 00:11:14,079 A kako se vi zovete? 137 00:11:14,080 --> 00:11:15,410 Voicheck. 138 00:11:15,410 --> 00:11:17,329 Voicheck kaže, moramo uzeti u obzir inflaciju 139 00:11:17,330 --> 00:11:19,640 Trebali bi biti velikodušniji. 140 00:11:19,640 --> 00:11:25,170 Bi li tada smatrali da je ovo ispravan način razmišljanja o tom pitanju? 141 00:11:25,170 --> 00:11:27,310 Pretpostavljam, nažalost tu negdje treba staviti broj, 142 00:11:27,310 --> 00:11:29,589 nisam siguran koji bi to broj bio, ali se slažem da bi se mogao staviti broj 143 00:11:29,590 --> 00:11:32,980 na ljudski život. 144 00:11:41,060 --> 00:11:42,439 U redu. Dakle Voicheck kaže, 145 00:11:44,420 --> 00:11:46,280 i tu se ne slaže s Julie, ... 146 00:11:46,649 --> 00:11:49,750 Julie kaže, ne možemo staviti broj na ljudski život u svrhu analize troškova i koristi. 147 00:11:49,750 --> 00:11:53,670 Voicheck kaže - moramo jer moramo donositi odluke, nekako. 148 00:11:59,870 --> 00:12:04,750 Što drugi misle o tome? 149 00:12:04,750 --> 00:12:06,270 Je li itko ovdje spreman braniti analizu troškova i koristi? 150 00:12:06,270 --> 00:12:09,810 Kao točnu i poželjnu? 151 00:12:09,810 --> 00:12:16,000 Ja mislim kad Ford i druge auto kompanije ne bi koristile analizu troškova i koristi 152 00:12:16,000 --> 00:12:18,949 na koncu bi propale jer ne bi mogle biti profitabilne 153 00:12:18,949 --> 00:12:23,139 i milijuni ljudi ne bi mogli koristiti njihove aute za odlazak na posao 154 00:12:23,139 --> 00:12:27,939 kako bi prehranili svoju djecu. 155 00:12:27,939 --> 00:12:29,699 Zato mislim da ako se ne koristi analiza troškova i dobiti 156 00:12:29,700 --> 00:12:31,870 žrtvuje se opće dobro u tom slučaju. 157 00:12:31,870 --> 00:12:34,810 Dobro, da vas pitam kako se zovete? 158 00:12:34,810 --> 00:12:37,599 Raul. 159 00:12:37,600 --> 00:12:41,760 Raul, nedavno je provedena studija o upotrebi mobitela u autu za vrijeme vožnje 160 00:12:43,090 --> 00:12:47,080 i vodi se diskusija o tome treba li to zabraniti 161 00:12:48,660 --> 00:12:50,689 Procjena je da oko 2000 ljudi umire u nesrećama svake godine 162 00:12:50,690 --> 00:12:54,990 zbog korištenja mobitela. 163 00:13:02,120 --> 00:13:07,860 a ipak analiza troškova i koristi koju je napravio Centar za analizu rizika na Harvardu 164 00:13:07,860 --> 00:13:10,520 ustanovila je da ako pogledate prednosti korištenja mobitela 165 00:13:13,560 --> 00:13:15,089 i procijenite vrijednost života, dođe skoro na isto 166 00:13:19,050 --> 00:13:23,290 zbog goleme ekonomske korisnosti omogućavanja ljudima da iskoriste vrijeme, 167 00:13:23,290 --> 00:13:27,370 da ne gube vrijeme, da mogu ugovarati poslove i razgovarati s prijateljima i tako dalje 168 00:13:27,370 --> 00:13:30,370 za vrijeme vožnje. 169 00:13:30,370 --> 00:13:32,060 Ne sugerira li to da je pogrešno ljudski život vrednovati novčanim iznosima? 170 00:13:37,590 --> 00:13:39,330 Pa, ja mislim da ako velika većina ljudi 171 00:13:41,780 --> 00:13:47,569 pokušava izvući maksimum korisnosti iz usluge kao što je upotreba mobitela 172 00:13:47,570 --> 00:13:47,989 i pogodnosti koju pružaju mobiteli, 173 00:13:47,989 --> 00:13:50,400 tada je žrtva nužna 174 00:13:50,400 --> 00:13:52,160 da bi ljudi bili zadovoljni. 175 00:13:53,230 --> 00:13:59,200 Vi ste otvoreno utilitarista. 176 00:13:59,200 --> 00:14:02,820 Da. 177 00:14:02,820 --> 00:14:05,810 Zadnje pitanje Raul, 178 00:14:05,810 --> 00:14:07,829 a postavio sam ga i Voichecku. 179 00:14:07,829 --> 00:14:12,870 Koliko bi morala biti cijena ljudskog života u dolarima da bi se zabranilo korištenje mobitela? 180 00:14:12,870 --> 00:14:14,640 Ne želim proizvoljno računati brojke ovoga časa... 181 00:14:21,350 --> 00:14:23,610 Želite li to uzeti u razmatranje? 182 00:14:23,610 --> 00:14:24,790 Da, uzet ću to ... 183 00:14:24,790 --> 00:14:28,689 Ali ugrubo koliko bi to bilo? Imate 2300 smrti, 184 00:14:28,690 --> 00:14:32,400 morate odrediti dolarsku vrijednost da biste znali želite li spriječiti te smrti 185 00:14:32,400 --> 00:14:37,069 zabranom upotrebe mobitela u autima. 186 00:14:37,070 --> 00:14:38,900 Pa, koje bi bilo vaše nagađanje? 187 00:14:38,900 --> 00:14:40,350 Koliko? 188 00:14:40,350 --> 00:14:40,799 Milijun, dva milijuna? 189 00:14:42,280 --> 00:14:44,410 Dva milijuna je bila Voitechova cifra. 190 00:14:44,410 --> 00:14:46,120 Je li to otprilike točno? 191 00:14:46,120 --> 00:14:50,500 Možda milijun. 192 00:14:50,500 --> 00:14:55,110 Milijun?! 193 00:14:55,110 --> 00:15:00,440 Dobro je, hvala. 194 00:15:00,440 --> 00:15:01,859 To su neke kontraverze koje proizlaze iz analize troškova i koristi, 195 00:15:01,859 --> 00:15:06,770 posebno one koje uključuju pridjeljivanje dolarske vrijednosti svemu što ulazi u zbroj. 196 00:15:06,770 --> 00:15:08,840 Sada bih se želio okrenuti vašim prigovorima, 197 00:15:08,840 --> 00:15:15,110 vašim prigovorima ne nužno na analizu troškova i koristi izričito, 198 00:15:15,110 --> 00:15:18,400 jer to je samo jedna verzija utilitarističke logike u današnjoj praksi, 199 00:15:21,960 --> 00:15:26,830 nego na teoriju u cjelini, 200 00:15:26,830 --> 00:15:30,000 ideji da je ispravni postupak, 201 00:15:30,000 --> 00:15:33,710 pravedna osnova za politiku i zakon, 202 00:15:33,710 --> 00:15:35,559 maksimiziranje korisnosti. 203 00:15:39,750 --> 00:15:41,590 Koliko vas se ne slaže s utilitarističkim pristupom 204 00:15:44,330 --> 00:15:46,390 zakonu i općem dobru? 205 00:15:48,480 --> 00:15:52,230 Koliko vas se slaže? 206 00:15:52,230 --> 00:15:55,200 Dakle više vas je koji se slažu ngo onih koji se ne slažu. 207 00:15:55,200 --> 00:15:59,560 Pa da čujemo kritičare. 208 00:15:59,560 --> 00:16:02,209 Moj glavni problem s tim je da mi se čini da ne možete reći ... 209 00:16:02,209 --> 00:16:06,280 samo zato što je netko u manjini, da su njegove želje i potrebe manje vrijedne 210 00:16:06,280 --> 00:16:11,650 nego onih koji su u većini. 211 00:16:11,650 --> 00:16:14,189 Pretpostavljam da imam problem s idejom da je 212 00:16:14,190 --> 00:16:16,099 'najveće dobro za najveći broj' u redu jer što je onda s ljudima kojih je manji broj, 213 00:16:21,040 --> 00:16:24,719 To nije fer prema njima jer nemaju pravo glasa o tome što oni žele. 214 00:16:25,840 --> 00:16:28,880 To je zanimljiv prigovor, vi brinete o učinku na manjinu? 215 00:16:28,880 --> 00:16:32,460 Da. 216 00:16:32,460 --> 00:16:34,940 Usput, kako se zovete? 217 00:16:34,940 --> 00:16:39,819 Anna. 218 00:16:39,819 --> 00:16:41,689 Tko ima odgovor na Anninu brigu za učinak na manjinu? 219 00:16:41,690 --> 00:16:42,540 Što kažete Anni? 220 00:16:42,540 --> 00:16:47,490 Ona kaže da manjine vrijede manje. Ja mislim da to nije slučaj 221 00:16:47,490 --> 00:16:51,339 jer pojedinci u manjini vrijede sasvim jednako kao pojedinci u većini. 222 00:16:51,339 --> 00:16:54,520 Samo je stvar u tome da brojevi prevladavaju manjinu. 223 00:16:55,670 --> 00:16:58,919 U određenom trenutku morate donijeti odluku, 224 00:16:58,919 --> 00:17:01,510 žao mi je manjine, ali ponekad je to za veće dobro. 225 00:17:03,670 --> 00:17:08,839 Za veće dobro. Anna, što vi kažete? Vaše ime? 226 00:17:08,839 --> 00:17:10,839 Youngda. 227 00:17:10,839 --> 00:17:13,589 Youngda kaže morate samo zbrojiti preferencije ljudi, 228 00:17:13,589 --> 00:17:17,698 a oni preferencije onih u manjini zaista se mjere. 229 00:17:17,699 --> 00:17:22,000 Možete li dati neki primjer za ono što vas brine 230 00:17:22,000 --> 00:17:24,880 kad kažete da ste zabrinuti da utilitarizam krši interes i uvažavanje manjine? 231 00:17:27,970 --> 00:17:29,730 Možete li dati neki primjer? 232 00:17:29,730 --> 00:17:35,179 Pa u odnosu na svaki od slučajeva o kojima smo govorili, poput brodoloma, 233 00:17:35,179 --> 00:17:36,450 mislima da je dječak koji pojeden ipak imao jednako pravo na život kao i drugi ljudi, 234 00:17:43,560 --> 00:17:44,710 a samo zato što je bio 'manjina' u tom slučaju, 235 00:17:44,710 --> 00:17:45,980 onaj koji je možda imao manje šanse da nastavi živjeti, 236 00:17:53,460 --> 00:17:54,870 to ne znači da drugi automatski imaju pravo da ga pojedu 237 00:17:58,450 --> 00:17:59,680 samo zato jer bi to većem broju ljudi pružilo šansu da preživi. 238 00:18:03,290 --> 00:18:05,740 Dakle, možda postoje određena prava koja imaju manjine odnosno pojedinac 239 00:18:07,850 --> 00:18:12,550 koja ne bi smjela biti razmjenjivana u ime korisnosti? 240 00:18:16,520 --> 00:18:18,210 Da, Anna? 241 00:18:18,210 --> 00:18:21,990 Ovo bi bio test za vas. 242 00:18:21,990 --> 00:18:24,550 U drevnom Rimu bacali su kršćane lavovima u koloseumu iz sporta. 243 00:18:29,510 --> 00:18:33,890 Ako razmislite o načinu utilitarističkog računanja - 244 00:18:33,890 --> 00:18:38,770 da, krščanin bačen lavu proživljava ogromni neipodnošljivi bol, 245 00:18:38,770 --> 00:18:45,770 ali pogledajte kolektivnu ekstazu Rimljana! 246 00:18:48,460 --> 00:18:50,580 Youngda. 247 00:18:50,580 --> 00:18:51,889 Pa, u to vrijeme ... 248 00:18:54,920 --> 00:19:01,710 U moderno vrijeme, uzimajući u obzir radost pruženu ljudima koji gledaju, 249 00:19:05,300 --> 00:19:07,490 mislim da niti jedan kreator politike ne bi rekao da je patnja jednog čovjeka puno ... 250 00:19:11,390 --> 00:19:14,680 u usporedbi sa radošću koju donosi ... 251 00:19:14,680 --> 00:19:20,460 Ne, ali morate priznati da u slučaju da je dovoljan broj Rimljana bio izbezumljen od sreće 252 00:19:20,460 --> 00:19:25,220 to bi prevladalo nad čak i najužasniju bol nekolicine kršćana bačenih lavovima. 253 00:19:28,600 --> 00:19:33,570 Dakle, zaista ovdje imamo dva različita prigovora utilitarizmu. 254 00:19:33,570 --> 00:19:35,030 Jedan se odnosi na primjereno poštovanje ljudskih prava odnosno prava manjina. 255 00:19:42,500 --> 00:19:45,150 A drugi se odnosi na cijelu ideju objedinjavanja korisnosti ili preferencija ili vrijednosti. 256 00:19:53,070 --> 00:19:56,470 Da li je moguće objediniti sve vrijednosti i prevesti ih u dolarsku vrijednost? 257 00:20:00,360 --> 00:20:02,479 1930.-ih bio je jedan psiholog koji pokušao govoriti o drugom pitanju, 258 00:20:12,370 --> 00:20:15,850 pokušao je dokazati ono što utilitarizam pretpostavlja, 259 00:20:18,530 --> 00:20:22,040 da je zaista moguće prevesti sve robe, sve vrijednosti, 260 00:20:22,040 --> 00:20:23,230 sve do čega je ljudima stalo, 261 00:20:27,309 --> 00:20:28,908 u jedinstvenu uniformnu mjeru, 262 00:20:28,909 --> 00:20:30,230 a to je učinio tako da je proveo anketu među mladim primateljima socijalne pomoći. 263 00:20:32,660 --> 00:20:37,610 To je bilo 1930. -te. 264 00:20:37,610 --> 00:20:42,000 Dao im je listu neugodnih doživljaja 265 00:20:42,000 --> 00:20:45,360 i pitao ih, 'Koliko bi trebali biti plaćeni da pristanete proživjeti ove stvari?' 266 00:20:45,360 --> 00:20:49,899 I vodio je bilješke. 267 00:20:49,900 --> 00:20:51,040 Na primjer, 'Koliko biste morali biti plaćeni da pristanete na vađenje prednjeg gornjeg zuba?' 268 00:20:57,240 --> 00:21:04,240 ili 'Koliko bi trebali biti plaćeni da pristanete da vam se odsječe jedan mali nožni prst?' 269 00:21:05,030 --> 00:21:11,649 ili ' da jedete žive gliste od 20 cm' 270 00:21:11,650 --> 00:21:18,650 ili 'da ostatak života proživite na farmi u Kansasu' 271 00:21:19,430 --> 00:21:24,480 ili 'da golim rukama zadavite mačku lutalicu'? 272 00:21:26,140 --> 00:21:32,900 Što mislite, koja je bila najskuplja stavka na toj listi? 273 00:21:32,900 --> 00:21:39,750 Kansas? 274 00:21:39,750 --> 00:21:44,840 U pravu ste, bio je to Kansas. 275 00:21:44,840 --> 00:21:46,059 Za Kansas ljudi su rekli da bi morali biti plaćeni 300.000 dolara. 276 00:21:57,340 --> 00:21:59,800 Što mislite koja je bila sljedeća najskuplja stavka? 277 00:22:03,140 --> 00:22:06,010 Nije mačka, 278 00:22:06,010 --> 00:22:08,190 nije zub, 279 00:22:08,190 --> 00:22:11,250 nije nožni prst, 280 00:22:11,250 --> 00:22:16,580 glista! 281 00:22:16,580 --> 00:22:20,600 Ljudi su rekli da bi im trebali platiti sto tisuća dolara da pojedu glistu! 282 00:22:23,420 --> 00:22:28,010 Što mislite da je bila najmanje skupa stavka? 283 00:22:28,010 --> 00:22:30,010 Nije mačka, 284 00:22:30,010 --> 00:22:31,300 zub! 285 00:22:31,300 --> 00:22:34,990 U vrijeme depresije ljudi su bili voljni da im se izvadi zub za samo 4.500 dolara. 286 00:22:42,020 --> 00:22:45,010 Evo što je Thorndike zaključio iz svog istraživanja: 287 00:22:48,460 --> 00:22:51,650 svaka želja ili užitak koji postoje, postoje u nekoj količini i stoga su mjerljivi. 288 00:22:54,600 --> 00:22:55,949 Život psa ili mačke ili kokoši 289 00:22:57,010 --> 00:22:59,430 sastoji se od 290 00:22:59,430 --> 00:23:00,979 gladi, žudnji, želja i zadovoljenja. 291 00:23:04,290 --> 00:23:05,750 Isto vrijedi za život ljudskih bića, iako su apetiti i želje kompliciraniji. 292 00:23:12,450 --> 00:23:14,330 Ali što je s Thorndikeovom studijom? 293 00:23:15,990 --> 00:23:17,870 Podržava li ona Benthamovu ideju 294 00:23:20,210 --> 00:23:22,130 da sva dobra, sve vrijednosti 295 00:23:22,130 --> 00:23:28,390 mogu biti obuhvaćeni jednom uniformnom mjerom vrijednosti 296 00:23:28,390 --> 00:23:34,289 ili besmislenost stavki na listi 297 00:23:34,289 --> 00:23:37,220 sugerira suprotni zaključak 298 00:23:37,220 --> 00:23:40,290 da možda - bez obzira govorimo li o životu ili Kanzasu ili glisti - 299 00:23:44,180 --> 00:23:45,440 možda stvari koje su nam vrijedne i važne 300 00:23:49,400 --> 00:23:51,350 ne mogu biti obuhvaćene jednom uniformnom mjerom vrijednosti. 301 00:23:54,280 --> 00:23:56,129 A ako ne mogu, koje su posljedice za utilitarističku teoriju morala? 302 00:24:02,180 --> 00:24:09,180 To je pitanje kojim ćemo nastaviti drugi puta. 303 00:24:13,179 --> 00:24:15,530 Uzmimo sada drugi dio glasova. 304 00:24:15,530 --> 00:24:17,680 KAKO MJERITI UGODU 305 00:24:17,680 --> 00:24:19,309 Koji je doživljaj najvećeg užitka? 306 00:24:23,410 --> 00:24:25,659 Koliko vas kaže Shakespeare? 307 00:24:31,720 --> 00:24:38,120 Koliko vas kaže Fear Factor (Faktor straha serija)? 308 00:24:38,120 --> 00:24:39,760 Ne, nemoguće da ste ozbiljni, zaista? 309 00:24:48,530 --> 00:24:53,510 Prošli puta počeli smo razmatrati neke prigovore 310 00:24:53,510 --> 00:24:56,570 na verziju utilitarizma Jeremy Benthama. 311 00:25:01,790 --> 00:25:04,950 U raspravi koju smo vodili ljudi su iznijeli dva prigovora. 312 00:25:08,380 --> 00:25:10,600 Prvi prigovor, tvrdnja je bila 313 00:25:12,710 --> 00:25:14,760 da utilitarizam baveći se 'najvećim dobrom za najveći broj' 314 00:25:20,110 --> 00:25:23,120 propušta adekvatno poštovati prava pojedinca. 315 00:25:25,480 --> 00:25:28,880 Danas imamo debate o mučenju i terorizmu. 316 00:25:33,610 --> 00:25:35,139 Pretpostavimo da je osumnjičeni terorist uhićen 10. rujna 317 00:25:41,350 --> 00:25:44,189 i imate razloga vjerovati da je osumnjičeni 318 00:25:44,190 --> 00:25:46,490 imao ključne informacije o predstojećem terorističkom napadu 319 00:25:46,490 --> 00:25:51,230 u kojem će poginuti preko 3000 ljudi. 320 00:25:52,200 --> 00:25:55,690 I ne može izvući informacije iz njega? 321 00:25:55,690 --> 00:25:57,670 Da li bi bilo pravedno mučiti osumnjičenika 322 00:26:01,070 --> 00:26:03,060 kako bi se dobile informacije? 323 00:26:03,060 --> 00:26:05,550 Ili 324 00:26:05,550 --> 00:26:07,770 Ili kažete - Ne - postoji kategorična moralna obaveza poštovanja prava pojedinca 325 00:26:14,550 --> 00:26:17,899 Na neki način vratili smo se na pitanje s kojim smo počeli, 326 00:26:17,900 --> 00:26:23,910 o tramvaju i transplantaciji organ. To je prvo sporno pitanje. 327 00:26:23,910 --> 00:26:29,250 I sjećate se da smo razmatrali neke primjere analize troškova i koristi. 328 00:26:29,250 --> 00:26:33,870 Ali mnogo ljudi nije bilo zadovoljno s analizom troškova i koristi 329 00:26:33,870 --> 00:26:39,969 kad se radilo o pridjeljivanju dolarske vrijednosti ljudskom životu. 330 00:26:39,970 --> 00:26:42,290 I to nas je dovelo do drugog prigovora 331 00:26:44,500 --> 00:26:48,810 koji je doveo u pitanje mogućnost prevođenja svih vrijednosti 332 00:26:48,810 --> 00:26:52,879 na jednu uniformnu mjeru vrijednosti. 333 00:26:52,880 --> 00:26:57,580 Drugim riječima, pitanje je jesu li sve vrijednosti sumjerljive. 334 00:26:57,580 --> 00:27:00,080 Da vam dam još jedan primjer, ustvari istinitu priču iz osobnog iskustva, 335 00:27:07,240 --> 00:27:12,900 koja barem postavlja pitanje mogu se sve vrijednosti prevesti bez gubitka 336 00:27:14,060 --> 00:27:20,158 u utilitaritarističke termine. 337 00:27:20,159 --> 00:27:22,390 Prije nekoliko godina 338 00:27:22,390 --> 00:27:28,080 kad sam bio na diplomskom studiju na Oxfordu u Engleskoj, 339 00:27:28,080 --> 00:27:29,800 i postojali su muški i ženski fakulteti, još nisu bili pomiješani. 340 00:27:29,800 --> 00:27:31,428 I ženski fakulteti imali su pravila zabrane noćnih posjeta za muške goste. 341 00:27:37,470 --> 00:27:40,080 U 1970.-ima ta su se pravila rijetko provodila i često kršila 342 00:27:44,030 --> 00:27:51,030 ili mi je tako bilo rečeno. 343 00:27:51,600 --> 00:27:56,549 Kasnih sedamdesetih, kad sam ja bio tamo, porastao je pritisak za ublažavanje tih pravila 344 00:27:56,549 --> 00:28:01,100 i to postalo predmet diskusije na St. Anne College, 345 00:28:01,100 --> 00:28:03,840 koji je bio jedan od tih fakulteta samo za žene. 346 00:28:03,840 --> 00:28:06,629 Starije žene na fakultetu bile su tradicionalisti, 347 00:28:06,630 --> 00:28:10,720 protivile su se promjeni na konvencionalnim moralnim osnovama. 348 00:28:12,820 --> 00:28:14,320 No, vremena su se promijenila i bilo im je neugodno 349 00:28:17,110 --> 00:28:20,000 iznijeti pravu osnovu njihovih prigovora. 350 00:28:20,000 --> 00:28:22,809 I zato su svoje argumente prevele u utilitarističke termine. 351 00:28:26,120 --> 00:28:27,419 Ako muškarci ostaju preko noći, tvrdile su, povećat će se troškovi fakulteta. 352 00:28:31,680 --> 00:28:33,490 Kako, možda se pitate? 353 00:28:33,490 --> 00:28:39,429 Pa, poželjet će se okupati i potrošit će našu toplu vodu, rekle su. 354 00:28:39,429 --> 00:28:40,779 Nadalje, tvrdile su, morat ćemo češće mijenjati madrace. 355 00:28:46,780 --> 00:28:48,379 Reformatori su udovoljili tim zahtjevima prihvaćajući sljedeće kompromise: 356 00:28:48,380 --> 00:28:52,250 svaka žena može imati do tri noćna gosta tjedno 357 00:29:01,160 --> 00:29:05,940 - nisu rekli da li to mora biti ista osoba ili tri različite - 358 00:29:05,940 --> 00:29:06,800 uz uvjet, i u tome je bio kompromis, uz uvjet 359 00:29:09,240 --> 00:29:10,400 gost je plaćao 50 pensa da namiri trošak fakulteta. 360 00:29:15,340 --> 00:29:17,179 Sljedeći dan pojavio se naslov u nacionalnim novinama: 361 00:29:17,180 --> 00:29:23,080 'Djevojke na St Anne, 50 pensa za noć'! 362 00:29:29,500 --> 00:29:31,040 Još jedna ilustracija teškoće prevođenja svih vrijednosti, 363 00:29:36,150 --> 00:29:38,930 - u ovom slučaju određene ideje vrline - 364 00:29:38,930 --> 00:29:44,200 u utilitarističke termine. 365 00:29:44,200 --> 00:29:46,980 Dakle, ovo je kao ilustracija drugog prigovora utilitarizmu, 366 00:29:48,830 --> 00:29:52,679 bar onog dijela tog prigovora koji dovodi u pitanje 367 00:29:54,780 --> 00:29:56,620 ispravnost utilitarizma u stajalištu 368 00:29:56,620 --> 00:29:58,809 da možemo prihvatiti uniformnost vrijednosti, sumjerljivost svih vrijednosti, 369 00:30:02,420 --> 00:30:08,230 i prevesti sva moralna razmatranja u dolare odnosno novac. 370 00:30:12,220 --> 00:30:14,510 No postoji i drugi aspekt brige u vezi agregiranja vrijednosti i preferencija. 371 00:30:19,690 --> 00:30:21,990 Zašto bismo trebali odvagnuti sve preferencije koje ljudi imaju 372 00:30:27,390 --> 00:30:32,650 bez procjenjivanja jesu li te preferencije dobre ili loše? 373 00:30:32,650 --> 00:30:35,120 Ne bismo li trebali razlikovati više i niže užitke? 374 00:30:41,760 --> 00:30:44,250 Dio sklonosti da ne radimo kvalitatine razlike između vrijednosti preferencija ljudi, 375 00:30:49,380 --> 00:30:50,820 djelomično smo tome skloni zato jer je to neosuđujuće i egalitaristički. 376 00:30:55,250 --> 00:30:58,110 Benthamski utilitarista kaže: 377 00:30:58,110 --> 00:31:01,199 Svačije preferencije se računaju bez obzira na to što ljudi žele, 378 00:31:04,890 --> 00:31:08,580 bez obzira na to što veseli različite ljude. 379 00:31:08,580 --> 00:31:09,530 Za Benthama, važno je jedino, sjetit ćete se, 380 00:31:09,530 --> 00:31:11,250 intenzitet ili trajanje zadovoljstva ili boli. 381 00:31:18,270 --> 00:31:24,040 Takozvana viša zadovoljstva ili plemenite vrline su jednostavno one, prema Benthamu, 382 00:31:24,040 --> 00:31:25,420 koje proizvode jače, duže zadovoljstvo. 383 00:31:29,380 --> 00:31:32,790 Čuvena fraza za iskazivanje te ideje je 384 00:31:32,790 --> 00:31:35,770 'količina zadovoljstva je jednaka, radi li se o pribadači ili poeziji'. 385 00:31:39,519 --> 00:31:41,789 Što je bila 'pribadača'? 386 00:31:41,789 --> 00:31:46,929 Bila je to neka vrsta dječje igre, 'igra pribadača dobra je koliko i poezija', 387 00:31:46,929 --> 00:31:48,850 rekao je Bentham. 388 00:31:48,850 --> 00:31:50,509 A, mislim da ispod te ideje leži tvrdnja, slutnja, 389 00:31:54,090 --> 00:31:55,870 da je oholo prosuđivati čija su zadovoljstva intrinzično viša ili vrednija ili bolja. 390 00:32:03,850 --> 00:32:07,010 I ima nešto privlačno u tom odbijanju da se prosuđuje, 391 00:32:07,010 --> 00:32:09,770 na koncu neki ljudi vole Mozarta, drugi Madonnu, 392 00:32:12,520 --> 00:32:15,090 neki ljudi vole balet, drugi kuglanje. 393 00:32:17,360 --> 00:32:19,439 Tko kaže, mogao bi tvrditi Bentham, 394 00:32:19,440 --> 00:32:23,140 tko će reći koja od zadovoljstava, 395 00:32:23,140 --> 00:32:24,260 čija zadovoljstva su viša, vrednija, plemenitija od drugih? 396 00:32:31,570 --> 00:32:35,980 Ali, je lli to ispravno? 397 00:32:35,980 --> 00:32:40,310 To odbijanje da radimo kvalitativne razlike. 398 00:32:40,310 --> 00:32:42,179 Možemo li se mi, svi zajedno, odreći ideje 399 00:32:45,170 --> 00:32:49,010 da su određene stvari koje nam čine zadovoljstvo bolje ili vrednije od drugih? 400 00:32:53,890 --> 00:32:58,640 Sjetite se Rimljana u koloseumu, jedna stvar koja je u tome ljude smetala 401 00:32:58,960 --> 00:33:01,170 bilo je da su se time izgleda kršila prava kršćana. 402 00:33:04,490 --> 00:33:07,250 Druga zamjerka onome što se tu događa 403 00:33:07,250 --> 00:33:10,720 je uživanje Rimljana u tom krvavom spektaklu. 404 00:33:13,480 --> 00:33:15,850 Treba li to zadovoljstvo, koje je sramotno i na neki način korumpirano, 405 00:33:19,130 --> 00:33:22,730 ponižavajuće zadovoljstvo. 406 00:33:22,730 --> 00:33:26,960 Treba li to uopće biti valorizirano odnosno vagano pri odlučivanju 407 00:33:26,960 --> 00:33:33,770 o tome što je opće dobro? 408 00:33:33,770 --> 00:33:38,760 Dakle, ovo su prigovori na Benthamov uitlitarizam, 409 00:33:38,760 --> 00:33:42,800 a sada se okrećemo nekome tko je pokušao odgovoriti na te prigovore, 410 00:33:45,890 --> 00:33:47,820 mlađi utilitarista, John Stuart Mill. 411 00:33:50,120 --> 00:33:52,780 Ono što sada trebamo ispitati 412 00:33:54,510 --> 00:33:58,809 je da li John Stuart Mill ima uvjerljivi odgovor na ove prigovore utilitarizmu. 413 00:34:05,090 --> 00:34:06,750 John Stuart Mill je rođen 1806., njegov otac, James Mill bio je Benthamov učenik 414 00:34:14,079 --> 00:34:17,389 i James Mill se odlučio svom sinu, Johnu Stuartu Millu, dati primjereno obrazovanje. 415 00:34:20,329 --> 00:34:22,429 On je bio čudo od djeteta, John Stuart Mill, 416 00:34:23,569 --> 00:34:27,859 znao je grčki s tri godine, latinski s osam, 417 00:34:27,859 --> 00:34:29,139 a u dobi od 10 godina napisao je Povijest rimskog prava. 418 00:34:33,659 --> 00:34:35,649 U dobi od 20 godina doživio je živčani slom, 419 00:34:35,649 --> 00:34:39,129 to ga je bacilo u depresiju pet godina, 420 00:34:39,129 --> 00:34:43,549 ali sa 25, ono što mu je pomoglo da se izvuče iz te depresije 421 00:34:46,800 --> 00:34:49,949 je susret s Harriet Taylor. 422 00:34:49,949 --> 00:34:52,659 Ona Mill su se oženili i živjeli sretno do kraja života 423 00:34:52,659 --> 00:34:54,849 i bilo je to pod njenim utjecajem 424 00:34:56,659 --> 00:34:59,859 da je John Stuart Mill pokušao humanizirati utilitarizam. 425 00:35:01,720 --> 00:35:05,279 Ono što je Mill pokušao je ustanoviti 426 00:35:05,279 --> 00:35:07,710 da li utilitarističko računanje može biti prošireno i modificirano 427 00:35:11,200 --> 00:35:13,759 kako bi zadovoljilo humanitarne dvojbe poput: 428 00:35:17,429 --> 00:35:20,390 brige za poštovanje ljudskih prava 429 00:35:20,390 --> 00:35:24,598 i također razlike između viših i nižih zadovoljstava. 430 00:35:26,439 --> 00:35:30,368 1859. Mill je napisao čuvenu knjigu 'O slobodi', 431 00:35:30,369 --> 00:35:35,399 čija je glavna tema važnost obrane prava pojedinca i prava manjina, 432 00:35:36,380 --> 00:35:38,329 a 1861. pred kraj života 433 00:35:40,339 --> 00:35:43,130 napisao jee knjigu koju čitamo u okviru ovog kolegija 434 00:35:43,130 --> 00:35:45,099 'Utilitarizam'. 435 00:35:45,099 --> 00:35:46,599 U njoj pojašnjava da je korisnost jedino mjerilo moralnosti, po njemu. 436 00:35:50,769 --> 00:35:52,549 Dakle, on ne dovodi u pitanje Benthamovu premisu, 437 00:35:53,949 --> 00:35:55,279 on je potvrđuje. 438 00:35:55,279 --> 00:35:58,829 On vrlo izričito kaže, 'Jedini dokaz da je moguće prozvesti da je sve poželjno, 439 00:35:58,829 --> 00:36:04,659 je taj da ljudi to zaista žele.' 440 00:36:05,929 --> 00:36:11,679 Dakle, on ostaje kod ideje da su de facto empirijske želje jedini temelj za moralnu prosudbu. 441 00:36:15,619 --> 00:36:17,549 Ali onda - strana 8 također u poglavlju 2 - 442 00:36:18,979 --> 00:36:24,879 on tvrdi da je utilitaristi moguće razlikovati viša od nižih zadovoljstava. 443 00:36:26,320 --> 00:36:28,970 Vi koji ste već čitali Milla, 444 00:36:32,079 --> 00:36:33,329 kako je po njemu moguće utvrditi tu razliku? 445 00:36:36,559 --> 00:36:40,079 Kako utilitarista može kvalitativno razlikovati viša zadovoljstva od nižih, 446 00:36:42,819 --> 00:36:43,540 sramotnih, nevrijednih? 447 00:36:48,859 --> 00:36:50,519 Ako ste probali oba, prirodno ćete dati prednost onom višem, uvijek. 448 00:36:55,309 --> 00:36:59,819 Sjajno, to je točno. Kako se zovete? 449 00:36:59,819 --> 00:37:01,759 John. 450 00:37:01,759 --> 00:37:05,019 Pa, kako ističe John, Mills kaže, 451 00:37:05,019 --> 00:37:07,868 'Evo testa, budući da ne možemo iskoračiti izvan stvarnih želja i preferenci, 452 00:37:10,490 --> 00:37:11,649 to bi narušilo utilitarističke pemise, 453 00:37:13,670 --> 00:37:16,819 jedini test 454 00:37:16,819 --> 00:37:17,600 da li je zadovoljstvo više ili niže razine, 455 00:37:19,769 --> 00:37:26,468 je da li bi mu netko tko je doživio oba, dao prednost. 456 00:37:28,109 --> 00:37:29,369 A ovdje, u poglavlju 2, vidimo odlomak u kojem Mill govori ono što je John opisao. 457 00:37:37,199 --> 00:37:42,680 'Od dva zadovoljstva, ako postoji jedno kojem bi svi, ili skoro svi, koji su doživjeli oba, 458 00:37:42,680 --> 00:37:46,219 dali odlučujuću prednost, 459 00:37:46,219 --> 00:37:51,859 bez obzira na bilo kakav osjećaj moralne obaveze da ga preferiraju, 460 00:37:51,859 --> 00:37:53,390 drugim riječima bez ikakvog vanjskog, nezavisnog mjerila, 461 00:37:53,390 --> 00:37:57,529 onda je to poželjnije zadovoljstvo.' 462 00:37:57,529 --> 00:37:59,829 Što ljudi misle o tom argumentu? 463 00:38:01,549 --> 00:38:03,489 Da li je dobar? 464 00:38:03,489 --> 00:38:06,380 Koliko vas misli da je uspješan 465 00:38:06,380 --> 00:38:11,489 za diskusiju o razlikovanju između viših i nižih zadovoljstava u terminima utilitarizma? 466 00:38:11,489 --> 00:38:12,390 Koliko vas misli da nije dobar? 467 00:38:17,789 --> 00:38:20,829 Želim čuti vaše razloge, 468 00:38:20,829 --> 00:38:22,249 ali prije no što izložimo razloge, napravit ćemo jedan pokus 469 00:38:26,329 --> 00:38:28,719 u vezi Millsove tvrdnje. 470 00:38:31,569 --> 00:38:35,199 Da bismo mogli napraviti taj pokus 471 00:38:35,199 --> 00:38:39,859 pogledat ćemo tri kratka isječka popularne zabave. 472 00:38:44,889 --> 00:38:48,170 Prvi je Hamletov monolog 473 00:38:48,170 --> 00:38:52,939 iza kojeg slijede dva druga doživljaja. 474 00:38:55,420 --> 00:38:58,259 Da vidimo što vi mislite. 475 00:38:58,259 --> 00:39:02,249 'Kakvo je remek-djelo čovjek! 476 00:39:02,249 --> 00:39:05,509 Kako plemenit umom! 477 00:39:05,509 --> 00:39:07,579 Kako neograničen u sposobnostima! 478 00:39:07,579 --> 00:39:11,439 U liku i pokretu kako je izražajan i divan! 479 00:39:11,439 --> 00:39:14,949 U djelima kako sličan anđelu, u mislima kako sličan Bogu! 480 00:39:14,949 --> 00:39:16,430 Ljepota svijeta, uzor svim životinjama! 481 00:39:18,349 --> 00:39:21,259 Pa ipak, što je za mene ta kvintesencija prašine? 482 00:39:24,689 --> 00:39:31,689 Čovjek mene ne očarava.' 483 00:39:43,309 --> 00:39:47,749 'Zamislite svijet u kojem vaši najveći strahovi postaju stvarnost. 484 00:39:47,749 --> 00:39:52,609 Svaki show, šest natjecatelja iz cijele zemlje bore se međusobno u tri ekstremne egzibicije. 485 00:39:52,609 --> 00:39:59,609 Te egzibicije smišljene su kao izazovi za natjecatelje, fizički i mentalno. 486 00:40:00,419 --> 00:40:02,288 Šest natjecatelja, tri egzibicije, jedan pobjednik. 487 00:40:02,289 --> 00:40:09,289 Fear Factor. 488 00:40:16,449 --> 00:40:22,919 Simpsoni. 489 00:40:22,919 --> 00:40:25,240 Flanders, otkad ti voliš kul stvari? 490 00:40:25,240 --> 00:40:28,729 Pa, nije mi do brzine, ali obožavam tu zaštitnu opremu, kacige, zaštitne šipke, zastavice. 491 00:40:28,729 --> 00:40:35,499 Ja volim friški zrak i gledati jadnike na terenu. 492 00:40:35,499 --> 00:40:41,319 Dang Cletus, zašto si morao parkirati pokraj mojih roditelja? 493 00:40:41,320 --> 00:40:43,029 Ne draga, to su i moji roditelji. 494 00:40:55,759 --> 00:41:00,629 Ne moram ni pitati koji vam se najviše sviđao. 495 00:41:00,629 --> 00:41:05,109 Simpsoni? Kome su se najviše sviđali Simpsoni? 496 00:41:05,109 --> 00:41:10,140 Kome Shakespeare? 497 00:41:10,140 --> 00:41:12,710 A Fear Factor? 498 00:41:12,710 --> 00:41:15,959 Koliko vas više voli Fear Factor? 499 00:41:15,959 --> 00:41:22,368 Stvarno? 500 00:41:22,369 --> 00:41:24,079 Nadmoćnoj većini sviđaju se Simpsoni 501 00:41:25,769 --> 00:41:29,229 više od Shakespearea. 502 00:41:29,229 --> 00:41:31,598 U redu, uzmimo sad drugi dio glasova. 503 00:41:33,749 --> 00:41:35,799 Koji doživljaj odnosno užitak je najviši? 504 00:41:39,409 --> 00:41:41,729 Koliko ih kaže Shakespeare? 505 00:41:47,789 --> 00:41:49,960 Koliko ih kaže Fear Factor? 506 00:41:54,189 --> 00:41:59,069 Ne, vi se šalite. Ozbiljno? 507 00:42:01,039 --> 00:42:02,709 Samo naprijed, recite. 508 00:42:02,709 --> 00:42:03,439 Ja mislim da je to najzabavnije. 509 00:42:04,709 --> 00:42:09,428 Znam, ali koji doživljaj je za vas najvredniji, najplemenitiji. 510 00:42:09,429 --> 00:42:10,920 Znam da vam je to najzabavnije. 511 00:42:10,920 --> 00:42:15,920 Ako je nešto dobro samo zato što je ugodno, zašto je važno da imate neku apstraktnu ideju 512 00:42:15,920 --> 00:42:17,209 je li to dobro po mjerilima nekog drugog? 513 00:42:21,729 --> 00:42:25,038 Znači vi stajete na stranu Benthama: 514 00:42:25,039 --> 00:42:26,429 tko je taj koji će prosuditi 515 00:42:26,429 --> 00:42:29,279 i zašto bi morali prosuđivati? 516 00:42:29,279 --> 00:42:33,880 Umjesto da samo registriramo i pribrojimo de facto preferencije. U redu, pošteno. 517 00:42:33,880 --> 00:42:35,349 Kako se vi zovete? 518 00:42:35,349 --> 00:42:37,329 Nate? U redu, pošteno. 519 00:42:38,219 --> 00:42:40,919 Koliko vas misli da su Simpsoni ustvari, osim što vam se sviđaju, 520 00:42:40,919 --> 00:42:46,259 da su ustvari doživljaj više razine od Shakespearea? 521 00:42:47,420 --> 00:42:49,309 Da vidiomo ponovo tko je glasao za Shakespearea. 522 00:42:49,309 --> 00:42:52,869 Koliko vas misli da je Shakespeare viši? 523 00:42:55,540 --> 00:42:58,999 Idealno bi bilo da čujem nekoga ... ima li koga tko misli da je Shakespeare najviši, 524 00:43:02,109 --> 00:43:02,989 ali radije gleda Simpsone? 525 00:43:08,739 --> 00:43:14,160 Samo sjediti i gledati Simpsone je zabavno jer se šale i nasmijavaju nas, 526 00:43:14,160 --> 00:43:17,839 ali netko nam mora reći da je Shakespeare veliki pisac, 527 00:43:17,839 --> 00:43:20,630 moramo naučiti kako ga čitati i kako ga razumijeti, 528 00:43:20,630 --> 00:43:23,150 moramo naučiti kako gledati Rembrandta, kako analizirati sliku. 529 00:43:23,150 --> 00:43:25,859 Kako se vi zovete? 530 00:43:25,859 --> 00:43:27,840 Aneesha. 531 00:43:27,840 --> 00:43:31,259 Aneesha, kad kažete da vam je netko rekao da je Shakespeare bolji, 532 00:43:31,259 --> 00:43:37,299 da li to prihvaćate slijepom vjerom? 533 00:43:37,299 --> 00:43:41,529 Glasali ste da je Shakespeare bolji samo zato jer vam to govori kultura ili učitelji? 534 00:43:41,529 --> 00:43:44,049 Ili se zaista sami slažete s tim? 535 00:43:44,049 --> 00:43:48,319 U odnosu na Shakesperea, ne, ali ranije ste dali primjer Rembrandta 536 00:43:49,740 --> 00:43:54,479 i mislim da bih više uživala čitajući strip 537 00:43:54,479 --> 00:43:58,348 nego što bih uživala analizirajući Rembrandta zato jer mi je netko rekao da je veliki slikar. 538 00:43:58,349 --> 00:44:01,699 Dakle vi sugerirate da bi nešto od toga bilo kulturna konvencija i pritisak. 539 00:44:01,699 --> 00:44:05,319 Rečeno nam je koje knjige, koja umjetnička djela su velika. 540 00:44:05,319 --> 00:44:12,319 Tko još? 541 00:44:15,309 --> 00:44:19,640 Iako sam više uživao gledajući Simpsone, ovaj tren na predavanju, 542 00:44:19,640 --> 00:44:23,049 kad bih morao ostatak svog života provesti s jednim od tri prikazana videa, 543 00:44:26,869 --> 00:44:29,119 ne bih želio provesti taj ostatak svog života gledajući zadnja dva videa. 544 00:44:33,800 --> 00:44:36,650 Mislim da bih više užitka našao u tome da budem u stanju 545 00:44:38,309 --> 00:44:39,269 razvijati se u vlastitom umu 546 00:44:39,269 --> 00:44:40,488 baveći se dubljim užicima, dubljim mislima. 547 00:44:44,869 --> 00:44:48,630 Recite mi vaše ime. 548 00:44:48,630 --> 00:44:49,630 Joe. 549 00:44:49,630 --> 00:44:52,559 Joe, dakle kad morali ostatak života provesti 550 00:44:52,559 --> 00:44:55,409 na farmi u Kansasu samo sa Shakespearom ili zbirkom epizoda Simpsona, 551 00:45:02,079 --> 00:45:04,119 vi bi radije odabrali Shakespearea? 552 00:45:06,599 --> 00:45:09,849 Što iz toga zaključujete o testu John Stuart Millsa? 553 00:45:12,149 --> 00:45:15,078 Da test višeg zadovoljstva pokazuje 554 00:45:15,079 --> 00:45:16,359 da li ljudi koji su doživjeli oba preferiraju dotično. 555 00:45:21,509 --> 00:45:23,880 Mogu li ukratko citirati drugi primjer? 556 00:45:23,880 --> 00:45:25,130 Na neurobiologiji prošle godine pričali su nam o pokusu sa štakorom 557 00:45:28,769 --> 00:45:31,209 gdje je štakor mogao stimulirati određeni centar u svom mozgu 558 00:45:31,209 --> 00:45:35,879 tako da doživljava intenzivno zadooljstvo. 559 00:45:35,879 --> 00:45:38,368 Štakor nije jeo ni pio sve dok nije umro. 560 00:45:38,369 --> 00:45:42,179 Štakor je očito doživljavao intenzivno zadovoljstvo. 561 00:45:42,179 --> 00:45:46,269 Pa sada, da me ovaj čas upitate da li bih radije doživio intenzivno zadovoljstvo 562 00:45:47,140 --> 00:45:52,690 ili cijeli život ispunjen višim zadovoljstvom, 563 00:45:52,690 --> 00:45:55,799 - intenzivno zadovoljstvo pritom smatram nižim zadovoljstvom - 564 00:45:55,799 --> 00:46:01,969 rado bih ovaj čas uživao u intenzivnom zadovoljstvu - da, sigurno bi - 565 00:46:01,969 --> 00:46:03,159 ali tokom cijelog života, mislim da bi se većina ovdje složila 566 00:46:06,899 --> 00:46:11,630 da bi radije bili ljudi s višim zadovoljstvom, nego taj štakor s intenzivnim zadovoljstvom 567 00:46:11,630 --> 00:46:13,269 u vrlo kratkom vremenskom periodu. 568 00:46:15,870 --> 00:46:18,959 A odgovarajući na vaše pitanje, to dokazuje da ... 569 00:46:18,959 --> 00:46:21,348 neću reći dokazuje, 570 00:46:21,349 --> 00:46:24,999 mislim da je zaključak da Millsova teorija da ako se pita ljude što bi više voljeli, 571 00:46:31,439 --> 00:46:33,118 većina će odgovoriti da bi radije doživljavali više zadovoljstvo. 572 00:46:33,119 --> 00:46:34,689 Dakle, vi mislite da to podržava ... mislite da je Mills ovdje u pravu? 573 00:46:39,499 --> 00:46:40,738 Da, mislim. 574 00:46:40,739 --> 00:46:42,629 Ima li koga tko se ne slaže s Joeom, 575 00:46:42,629 --> 00:46:46,839 tko misli da naš eksperiment opovrgava Millsov test? 576 00:46:51,099 --> 00:46:53,239 Pokazuje da to nije adekvatan način, 577 00:46:53,239 --> 00:46:57,689 da ne možete raspoznati viša zadovoljstva u okvirima utilitarizma. 578 00:47:05,879 --> 00:47:09,509 Ako je uistinu dobro što god ljudi preferiraju, 579 00:47:09,509 --> 00:47:11,519 onda je to uistinu relativno i ne postoji objektivna definicija. 580 00:47:11,519 --> 00:47:14,888 U nekim društvima ljudi će preferirati Simpsone. 581 00:47:15,849 --> 00:47:21,380 Svatko može uživati u Simpsonima, 582 00:47:21,380 --> 00:47:25,660 ali mislim da je nužna edukacija da se uživa u Shakespeareu. 583 00:47:25,660 --> 00:47:27,319 Vi kažete da je potrebna edukacija za uživanje u višim stvarima. 584 00:47:27,319 --> 00:47:29,719 Millsov stav je da viša zadovoljstva zaista zahtijevaju kultivaciju i edukaciju. 585 00:47:35,090 --> 00:47:37,799 On to ne osporava. 586 00:47:38,650 --> 00:47:41,660 Ali jednom kad su kultivirani i educirani ljudi će uvidjeti, 587 00:47:41,660 --> 00:47:44,029 ne samo da će uvidjeti razliku između viših i nižih zadovoljstava, 588 00:47:49,009 --> 00:47:51,539 nego će zapravo preferirati viša pred nižima. 589 00:47:55,849 --> 00:47:59,519 Naći ćete taj čuveni citat John Stuart Millsa: 590 00:47:59,519 --> 00:48:00,808 'Bolje je biti nezadovoljno ljudsko biće, nego zadovoljna svinja.' 591 00:48:03,869 --> 00:48:06,109 Bolje nezadovoljni Sokrat, nego zadovoljna budala. 592 00:48:10,539 --> 00:48:12,229 A ako budala i svinja različito misle, to je zato jer znaju samo svoju stranu pitanja.' 593 00:48:20,700 --> 00:48:22,339 Dakle, tu imate pokušaj razlikovanja viših od nižih zadovoljstava, 594 00:48:28,719 --> 00:48:33,169 odnosno između posjeta muzeju i gledanja televizije uz bocu piva kod kuće. 595 00:48:35,489 --> 00:48:37,950 Mill dopušta da ponekad možda podliježemo iskušenju 596 00:48:37,950 --> 00:48:40,839 da radimo ovo zadnje, budemo TV ovisnici, 597 00:48:46,309 --> 00:48:47,779 ali čak i kad to radimo iz nemara i lijenosti, i 598 00:48:50,680 --> 00:48:52,200 mi znamo da zadovoljstvo koje osjećamo zureći u Rembrandta u muzeju 599 00:48:52,200 --> 00:48:54,029 ustvari je više 600 00:49:00,219 --> 00:49:03,190 zato jer smo doživjeli oba. 601 00:49:03,190 --> 00:49:05,699 A to i jeste više zadovoljstvo, zurenje u Rembrandte, 602 00:49:06,940 --> 00:49:11,499 zato jer zaokuplja naše više ljudske sposobnosti. 603 00:49:11,499 --> 00:49:13,848 Što je s Millsovim pokušajem da odgovori na prigovor o pravima pojedinca? 604 00:49:18,890 --> 00:49:21,859 Na neki način on koristi istu vrstu argumenta. 605 00:49:21,859 --> 00:49:25,319 A to je predstavljeno u poglavlju 5. 606 00:49:27,859 --> 00:49:33,369 On kaže: 'Iako osporavam pretenzije bilo koje teorije koja postavlja 607 00:49:33,369 --> 00:49:34,889 imaginarni standard pravednosti neutemeljen na korisnosti. 608 00:49:39,719 --> 00:49:41,389 Ali ipak, smatra da je pravednost utemeljena na korisnosti, 609 00:49:41,389 --> 00:49:43,429 glavni dio i neusporedivo najsvetiji i obvezujući dio svake moralnosti ...' 610 00:49:54,599 --> 00:49:57,249 Dakle, pravda jeste viša, individualna prava imaju prednost, 611 00:50:00,049 --> 00:50:01,899 ali ne iz razloga koji se razilaze sa utilitarističkim postavkama. 612 00:50:05,310 --> 00:50:06,769 'Pravednost je ime za određene moralne zahtjeve 613 00:50:06,769 --> 00:50:09,069 koji, na kolektivnoj razini, stoje visoko na skali društvene korisnosti 614 00:50:09,069 --> 00:50:11,220 i stoga predstavljaju mjerodavniju obavezu od bilo koje druge.' 615 00:50:23,200 --> 00:50:28,919 Dakle, pravednost je sveta, prvenstvena, povlaštena. 616 00:50:28,920 --> 00:50:30,890 To nije nešto što se može lako razmijeniti za manje vrijedne stvari, 617 00:50:30,890 --> 00:50:32,239 ali razlog je, u konačnici, tvrdi Mills, utilitaristički razlog 618 00:50:37,929 --> 00:50:39,239 Kad pogledate dugoročne interese ljudske vrste, 619 00:50:41,199 --> 00:50:43,539 svih nas kao progresivnih bića, 620 00:50:46,329 --> 00:50:47,699 ako postupamo pravedno i poštujemo prava, 621 00:50:51,279 --> 00:50:52,609 društvu će u cjelini biti bolje, dugoročno gledano. 622 00:50:55,949 --> 00:50:57,999 Je li to uvjerljivo? 623 00:50:57,999 --> 00:50:59,158 Ili, da li Mills ustvari, ne priznajući to, izlazi izvan utilitarističkih okvira 624 00:51:06,219 --> 00:51:07,789 zalažući se za kvalitativno viša zadovoljstva 625 00:51:12,789 --> 00:51:14,479 i za sveta, odnosno posebno važna, prava pojedinca? 626 00:51:18,479 --> 00:51:21,718 Mi nismo u potpunosti odgovorili na to pitanje 627 00:51:21,719 --> 00:51:23,809 jer da bi se odgovorilo na to pitanje, u slučaju prava i pravednosti, 628 00:51:26,259 --> 00:51:28,869 nužno bi bilo istražiti druge načine, neutilitarističke načine, 629 00:51:33,369 --> 00:51:35,030 tumačenja osnove prava 630 00:51:36,479 --> 00:51:38,269 i onda se zapitati da li su valjana. 631 00:51:40,409 --> 00:51:42,949 Što se tiče Jeremy Benthama, 632 00:51:42,949 --> 00:51:44,969 koji je lansirao utilitarizam kao doktrinu i moralnu i pravnu filozofiju, 633 00:51:49,979 --> 00:51:53,819 Bentham je umro 1832. u dobi od 85 godina, 634 00:51:53,819 --> 00:51:57,509 ali ako odete u London možete ga i danas posjetiti, doslovno. 635 00:51:58,729 --> 00:52:01,439 U svojoj oporuci pobrinuo se da njegovo tijelo bude konzervirano, 636 00:52:03,390 --> 00:52:05,489 balzamirano i izloženo na sveučilištu University of London 637 00:52:07,739 --> 00:52:11,069 gdje još uvijek vlada u staklenoj vitrini s voštanom glavom u svom stvarnom odijelu. 638 00:52:14,989 --> 00:52:17,049 Vidite, prije no što je umro Bentham si je postavio pitanje sukladno svojoj filozofiji, 639 00:52:22,339 --> 00:52:23,499 od kakve koristi bi mrtav čovjek mogao biti živima? 640 00:52:26,839 --> 00:52:30,499 Jedna korist, rekao je, bila bi staviti svoj leš na raspolaganje 641 00:52:30,499 --> 00:52:33,519 za studiranje anatomije. 642 00:52:33,519 --> 00:52:37,129 U slučaju velikih filozofa, međutim, 643 00:52:37,129 --> 00:52:38,159 jo je bolje sačuvati svoju fizičku prisutnost kao inspiraciju budućim generacijama mislilaca. 644 00:52:44,919 --> 00:52:47,618 Želite vidjeti kako izgleda punjeni Bentham? 645 00:52:47,619 --> 00:52:50,410 Ovako izgleda. 646 00:52:53,549 --> 00:52:55,459 Ako pogledate pažljivo, primjetit ćete 647 00:52:57,459 --> 00:52:58,529 da balzamiranje njegove stvarne glave nije baš uspjelo pa su je zamijenili voštanom, 648 00:53:06,910 --> 00:53:10,009 a na dnu radi vjerodostojnosti možete vidjeti njegovu pravu glavu na tanjuru. 649 00:53:16,529 --> 00:53:17,809 Vidite? 650 00:53:17,809 --> 00:53:22,599 Ovdje. 651 00:53:22,599 --> 00:53:25,709 Pa, koja je pouka priče? 652 00:53:25,709 --> 00:53:29,499 Pouka priče ... 653 00:53:29,499 --> 00:53:33,698 usput, vade ga za vrijeme zasjedanja vijeća na University College London, 654 00:53:33,699 --> 00:53:40,659 a u zapisniku ga bilježe kao prisutnog bez prava glasa. 655 00:53:40,659 --> 00:53:42,539 Ovdje je filozof u životu i smrti koji se držao principa svoje filozofije. 656 00:53:48,400 --> 00:53:55,400 Idući puta nastavit ćemo s pravima.