1 00:00:03,570 --> 00:00:06,570 Pravednost Michael Sandel 2 00:00:06,510 --> 00:00:11,850 Ima li život cijenu? 3 00:00:32,850 --> 00:00:35,290 Prošli puta diskutirali smo o slučaju Karljica protiv Dudleya i Stephensa, 4 00:00:35,290 --> 00:00:39,400 5 00:00:39,400 --> 00:00:45,970 slučaj u čamcu za spasavanje, slučaj kanibalizma na moru, 6 00:00:45,970 --> 00:00:48,420 i s imajući na umu argumente slučaja čamca za spasavanje, 7 00:00:48,420 --> 00:00:49,369 8 00:00:49,369 --> 00:00:53,750 argumente za i protiv onoga što su učinili Dudley i Stephens, 9 00:00:53,750 --> 00:00:56,890 10 00:00:56,890 --> 00:00:58,480 vratimo se na utilitarističku filozofiju Jeremya Benthama. 11 00:00:58,480 --> 00:01:02,059 12 00:01:02,060 --> 00:01:06,130 Bentham je rođen u Engleskoj 1748., 13 00:01:06,130 --> 00:01:09,740 sa 12 godina pohađao je Oxford, sa 15 se upisao na pravni fakultet. 14 00:01:09,740 --> 00:01:15,060 Sa 19 primljen je u Odvjetničku komoru, ali nikada se nije bavio pravom, 15 00:01:15,060 --> 00:01:17,470 umjesto toga posvetio je život filozofiji prava i filozofiji morala. 16 00:01:17,470 --> 00:01:19,920 17 00:01:19,920 --> 00:01:22,170 18 00:01:22,170 --> 00:01:27,690 Prošli puta počeli smo razmatrati Benthamovu verziju utilitarizma. 19 00:01:27,690 --> 00:01:28,810 Glavna ideja, sažeto sročena, je ova: 20 00:01:28,810 --> 00:01:32,870 najviši princip morala, bilo osobnog ili političkog morala, 21 00:01:32,870 --> 00:01:35,750 22 00:01:35,750 --> 00:01:38,909 23 00:01:38,909 --> 00:01:40,260 je maksimiziranje općeg dobra 24 00:01:40,260 --> 00:01:42,520 25 00:01:42,520 --> 00:01:44,390 26 00:01:44,390 --> 00:01:46,560 ili kolektivne sreće, 27 00:01:46,560 --> 00:01:50,070 ili ukupne ravnotežu zadovoljstva i boli 28 00:01:50,070 --> 00:01:52,210 u izrazu maksimizirane korisnosti. 29 00:01:52,210 --> 00:01:53,210 30 00:01:53,210 --> 00:01:56,419 31 00:01:56,420 --> 00:02:00,750 Bentham dolazi do tog principa rasuđujući na sljedeći način: 32 00:02:00,750 --> 00:02:03,150 svima nama upravljaju bol i zadovoljstvo, 33 00:02:03,150 --> 00:02:09,009 oni su naši suvereni gospodari, pa ih svaki moralni sistem mora uzeti u obzir. 34 00:02:09,008 --> 00:02:10,999 Kako ih najbolje uzeti u obzir? 35 00:02:10,999 --> 00:02:14,209 Maksimiziranjem 36 00:02:14,209 --> 00:02:15,739 i to vodi principu 'najvećeg dobra za najveći broj'. 37 00:02:15,739 --> 00:02:19,449 38 00:02:19,449 --> 00:02:23,029 Što bismo točno trebali maksimizirati? 39 00:02:23,029 --> 00:02:24,698 Bentham nam govori - sreću 40 00:02:24,699 --> 00:02:25,510 41 00:02:25,510 --> 00:02:27,728 ili, preciznije, korisnost. 42 00:02:27,729 --> 00:02:29,479 43 00:02:29,479 --> 00:02:34,239 Maksimiziranje korisnosti nije najvažnije samo za pojedince, već i za zajednice 44 00:02:34,239 --> 00:02:36,569 i zakonodavce. 45 00:02:36,569 --> 00:02:38,749 Na koncu, što je zajednica? - pita Bentham. 46 00:02:38,749 --> 00:02:41,359 47 00:02:41,359 --> 00:02:45,309 To je suma pojedinaca koji ju sačinjavaju. 48 00:02:45,309 --> 00:02:46,780 I zbog toga, u odlučivanju o najboljim politikama i što bi trebao biti zakon, 49 00:02:46,780 --> 00:02:53,370 u odlučivanju što je pravedno, 50 00:02:53,370 --> 00:02:59,029 građani i zakonodavci bi se trebali zapitati: 51 00:02:59,029 --> 00:03:03,870 Ako zbrojimo sve korisnosti ove politike 52 00:03:03,870 --> 00:03:05,290 i oduzmemo sve troškove, 53 00:03:05,290 --> 00:03:08,828 54 00:03:08,829 --> 00:03:10,669 ispravna stvar koju treba učiniti je ona 55 00:03:10,669 --> 00:03:11,779 56 00:03:11,779 --> 00:03:13,439 koja maksimizira ravnotežu sreće nad patnjom. 57 00:03:13,439 --> 00:03:14,698 58 00:03:14,699 --> 00:03:16,020 59 00:03:16,020 --> 00:03:20,869 60 00:03:20,869 --> 00:03:24,039 To znači maksimizirati korisnost. 61 00:03:24,039 --> 00:03:24,988 Danas želim ustanoviti da li se vi slažete s tim ili ne. 62 00:03:24,989 --> 00:03:28,189 63 00:03:28,189 --> 00:03:31,150 64 00:03:31,150 --> 00:03:36,650 A ta utilitarna logika često dolazi pod nazivom analiza troškova i koristi 65 00:03:36,650 --> 00:03:39,719 koju koriste kompanije i vlade cijelo vrijeme. 66 00:03:39,719 --> 00:03:41,219 67 00:03:41,219 --> 00:03:41,978 68 00:03:41,979 --> 00:03:43,729 69 00:03:43,729 --> 00:03:45,239 70 00:03:45,239 --> 00:03:50,789 A ono što ona uključuje je pridjeljivanje vrijednosti, 71 00:03:50,789 --> 00:03:53,289 obično dolarske vrijednosti, za korisnost 72 00:03:53,289 --> 00:03:56,539 troškova i koristi u vezi raznih prijedloga. 73 00:03:56,539 --> 00:03:58,879 Nedavno je u Republici Češkoj 74 00:03:58,879 --> 00:04:03,370 predstavljen prijedlog za povećanje poreza na trošarinu za pušenje. 75 00:04:03,370 --> 00:04:05,089 Philip Morris, duhanska kompanija, 76 00:04:05,089 --> 00:04:08,219 77 00:04:08,219 --> 00:04:09,779 ostvaruje veliku dobit u Republici Češkoj. 78 00:04:09,779 --> 00:04:12,509 Oni su naručili studiju analize troškova i koristi 79 00:04:12,509 --> 00:04:15,429 pušenja u Republici Češkoj. 80 00:04:15,430 --> 00:04:16,789 81 00:04:16,789 --> 00:04:18,678 82 00:04:18,678 --> 00:04:20,899 I ono što je ustanovila ta studija analize troškova i koristi, 83 00:04:20,899 --> 00:04:22,830 84 00:04:22,830 --> 00:04:23,550 85 00:04:23,550 --> 00:04:25,660 je da vlada ostvaruje dobit zahvaljujući pušenju čeških građana. 86 00:04:25,660 --> 00:04:27,349 87 00:04:27,349 --> 00:04:30,779 88 00:04:30,779 --> 00:04:32,360 Pa, kako ostvaruju dobit? 89 00:04:32,360 --> 00:04:36,189 Istina je da postoje negativni učinci za financije češke vlade, 90 00:04:36,189 --> 00:04:40,000 91 00:04:40,000 --> 00:04:45,039 zbog povećanih troškova zdravstva za ljude koji pate od bolesti povezanih s pušenjem, 92 00:04:45,039 --> 00:04:47,239 93 00:04:47,239 --> 00:04:50,369 s druge strane postoje pozitivni učinci, 94 00:04:50,369 --> 00:04:51,620 95 00:04:51,620 --> 00:04:53,099 a to su, pribrojeni na drugoj strani bilance, 96 00:04:53,099 --> 00:04:55,378 97 00:04:55,379 --> 00:05:01,960 pozitivni učinci su uključivali, najvećim dijelom, 98 00:05:01,960 --> 00:05:06,239 razne porezne prihode koje vlada ostvaruje od prodaje cigareta, 99 00:05:06,240 --> 00:05:09,530 no također su uključivali uštede u zdravstvu kad ljudi umiru ranije, 100 00:05:09,530 --> 00:05:13,339 uštede na penzijama - ne morate plaćati penzije tako dugo - 101 00:05:13,339 --> 00:05:14,889 i također uštede u domovima za starije. 102 00:05:14,889 --> 00:05:19,679 103 00:05:19,679 --> 00:05:24,539 I kad su bili sumirani svi troškovi i koristi, 104 00:05:24,539 --> 00:05:25,969 studija Philip Morrisa je ustanovila 105 00:05:25,969 --> 00:05:27,870 106 00:05:27,870 --> 00:05:32,610 da je neto dobit javnih financija u Republici Češkoj 107 00:05:32,610 --> 00:05:36,449 147 milijuna dolara, 108 00:05:36,449 --> 00:05:38,120 a u odnosu na uštede u smještaju i zdravstvenoj skrbi i troškovima za mirovine 109 00:05:38,120 --> 00:05:41,479 vlada je uštedila preko 1200 dolara za svaku osobu koja prerano umre zbog pušenja. 110 00:05:41,479 --> 00:05:46,570 111 00:05:46,570 --> 00:05:52,569 112 00:05:52,569 --> 00:05:56,740 Analiza troškova i koristi. 113 00:05:56,740 --> 00:06:01,729 Oni od vas koji brane utilitarizam mogli bi pomisliti da ovaj test nije fer. 114 00:06:01,729 --> 00:06:03,389 115 00:06:03,389 --> 00:06:09,130 Philip Morris je bio razapet u štampi i objavio je ispriku za ovu bezdušnu kalkulaciju. 116 00:06:09,130 --> 00:06:10,990 117 00:06:10,990 --> 00:06:12,319 Mogli biste reći da je ono što ovdje nedostaje 118 00:06:12,319 --> 00:06:17,119 nešto što utilitaristi mogu lako ugraditi, napose 119 00:06:17,119 --> 00:06:19,339 120 00:06:19,339 --> 00:06:23,430 vrijednost za osobu i obitelji onih koji umiru od raka pluća. 121 00:06:23,430 --> 00:06:25,599 122 00:06:25,599 --> 00:06:29,190 A što je sa vrijednošću života? 123 00:06:29,190 --> 00:06:33,099 Neke analize troškova i koristi sadržavaju mjeru za vrijednost života. 124 00:06:33,099 --> 00:06:34,560 125 00:06:34,560 --> 00:06:36,809 126 00:06:36,809 --> 00:06:41,330 Jedna od najpoznatijih je slučaj Ford Pinto automobila. 127 00:06:41,330 --> 00:06:45,008 Je li itko čitao o tome? To je bilo 1970.-tih. 128 00:06:45,009 --> 00:06:48,210 Sjećate se da je Ford Pinto bio marka automobila? 129 00:06:48,210 --> 00:06:51,029 Itko? 130 00:06:51,029 --> 00:06:55,879 To je bio mali auto, kompakt klase, vrlo popularan, 131 00:06:55,879 --> 00:06:58,059 ali imao je jedan problem, a to je da je rezervoar za gorivo bio straga 132 00:06:58,059 --> 00:07:01,959 133 00:07:01,959 --> 00:07:07,960 i kod udarca u stražnji dio rezervoar bi eksplodirao 134 00:07:07,960 --> 00:07:10,210 i neki ljudi su poginuli, a neki ozbiljno povrijeđeni. 135 00:07:10,210 --> 00:07:14,349 136 00:07:14,349 --> 00:07:18,998 Žrtve tih nesreća tužile su Ford, 137 00:07:18,999 --> 00:07:21,669 a na suđenju se ispostavilo 138 00:07:21,669 --> 00:07:24,030 da je Ford odavno znao za riskantnost rezervoara za gorivo 139 00:07:24,030 --> 00:07:25,248 140 00:07:25,249 --> 00:07:27,719 141 00:07:27,719 --> 00:07:33,599 i da je napravio analizu troškova i dobiti kako bi ustanovio da li bi se isplatilo 142 00:07:33,599 --> 00:07:36,300 ugraditi posebni štit 143 00:07:36,300 --> 00:07:40,490 koji bi zaštito rezervoar i spriječio da eksplodira. 144 00:07:40,490 --> 00:07:42,979 Napravilu su analizu troškova i koristi; 145 00:07:42,979 --> 00:07:46,318 cijena po komadu za povećanje sigurnosti Pinta 146 00:07:46,319 --> 00:07:48,239 147 00:07:48,239 --> 00:07:50,299 148 00:07:50,299 --> 00:07:55,688 izračunali su da iznosti 11 dolara po komadu. 149 00:07:55,689 --> 00:07:57,189 150 00:07:57,189 --> 00:08:00,609 A ovo je analiza troškova i koristi koja se pojavila na suđenju, 151 00:08:00,609 --> 00:08:03,089 152 00:08:03,089 --> 00:08:05,960 11 dolara po komadu za 12,5 milijuna automobila i kamiona 153 00:08:05,960 --> 00:08:09,998 iznosi ukupno 137 milijuna dolara za povećanje sigurnosti. 154 00:08:09,999 --> 00:08:13,559 155 00:08:13,370 --> 00:08:17,370 156 00:08:17,370 --> 00:08:18,789 A onda su izračunali koristi od ulaganja tog novca u sigurniji auto. 157 00:08:18,789 --> 00:08:20,139 158 00:08:20,139 --> 00:08:23,300 159 00:08:23,300 --> 00:08:26,800 Prebrojali su 180 smrti i pridijelili dolarsku vrijednost: 160 00:08:26,800 --> 00:08:28,749 200 tisuća dolara po jednoj smrti. 161 00:08:28,749 --> 00:08:30,449 162 00:08:30,449 --> 00:08:32,490 163 00:08:32,490 --> 00:08:35,250 180 povreda - 67 tisuća dolara; 164 00:08:35,250 --> 00:08:37,490 165 00:08:37,490 --> 00:08:38,909 i onda troškovi popravka i zamjene za 2000 vozila, 166 00:08:38,909 --> 00:08:43,289 koji bi bili uništeni bez tog zaštitnog dijela, 167 00:08:43,289 --> 00:08:45,030 700 dolara po vozilu. 168 00:08:45,030 --> 00:08:48,060 169 00:08:48,060 --> 00:08:50,390 Tako se pokazalo da bi koristi iznosile samo 49,5 milijuna 170 00:08:50,390 --> 00:08:53,930 171 00:08:53,930 --> 00:08:55,270 i stoga nisu ugradili tu zaštitu. 172 00:08:55,270 --> 00:08:56,329 173 00:08:56,330 --> 00:08:58,140 174 00:08:58,140 --> 00:08:59,840 Nepotrebno je napominjati 175 00:08:59,840 --> 00:09:01,740 da kad se taj memo o analizi troškova i koristi kompanije Ford Motor Company 176 00:09:01,160 --> 00:09:09,160 pojavio na suđenju, 177 00:09:09,160 --> 00:09:11,250 zapanjio je porotnike, koji su dosudili goleme odštete. 178 00:09:11,250 --> 00:09:15,950 179 00:09:15,950 --> 00:09:21,810 Je li to protuprimjer za utilitarističku ideju izračuna? 180 00:09:21,810 --> 00:09:23,040 Jer Ford je uključio mjeru za vrijednost života. 181 00:09:23,040 --> 00:09:27,319 182 00:09:27,320 --> 00:09:30,770 Tko bi od vas želio braniti analizu troškova i koristi 183 00:09:30,770 --> 00:09:33,240 u ovom očitom protuprimjeru? 184 00:09:33,240 --> 00:09:35,320 185 00:09:35,320 --> 00:09:38,720 Tko ima obranu? 186 00:09:38,720 --> 00:09:41,590 Ili mislite da to u potpunosti ruši cijeli utiilitaristički račun? 187 00:09:41,590 --> 00:09:47,410 188 00:09:47,410 --> 00:09:48,760 Ja mislim da su opet napravili isti grešku kao u prethodnom slučaju 189 00:09:48,760 --> 00:09:53,210 pridijelivši dolarsku vrijednost ljudskom životu ne uzimajući u obzir stvari poput 190 00:09:53,210 --> 00:09:56,570 191 00:09:56,570 --> 00:10:00,580 patnje i emocionalnih gubitaka obitelji, 192 00:10:00,580 --> 00:10:03,980 koje su izgubile prihode, ali i svoje voljene, 193 00:10:03,980 --> 00:10:06,820 a to vrijedi više od 200 tisuća dolara. 194 00:10:06,820 --> 00:10:09,170 Čekajte, kako se vi zovete? 195 00:10:09,170 --> 00:10:10,479 Julie Roto. 196 00:10:10,480 --> 00:10:14,400 Pa, Julie, ako 200 tisuća preniska cifra 197 00:10:14,400 --> 00:10:18,660 jer ne uključuje gubitak voljenih i gubitak svih tih godina života, 198 00:10:18,660 --> 00:10:21,660 199 00:10:21,660 --> 00:10:23,980 što mislite, koji bi broj bio točniji? 200 00:10:23,980 --> 00:10:27,290 201 00:10:27,290 --> 00:10:32,430 Ne vjerujem da mogu dati broj, 202 00:10:32,430 --> 00:10:33,560 mislim da se taka vrsta analize ne bi smjela koristiti u pitanjima ljudskog života. 203 00:10:33,560 --> 00:10:36,199 Mislim da se to ne može izraziti novčano. 204 00:10:36,200 --> 00:10:39,270 Dakle, oni ne samo da su stavili premalu brojku, 205 00:10:39,270 --> 00:10:44,510 kaže Julie, nego su pogriješili uopće stavljajući bilo koji broj. 206 00:10:44,510 --> 00:10:49,540 U redu, da čujemo nekoga tko ... 207 00:10:49,540 --> 00:10:51,860 Morate uzeti u obzir inflaciju? 208 00:10:57,700 --> 00:10:59,130 U redu, pošteno. 209 00:10:59,130 --> 00:11:00,050 210 00:11:00,050 --> 00:11:02,660 Pa koji bi to onda broj sada bio? 211 00:11:02,660 --> 00:11:07,640 To je bilo prije 35 godina. 212 00:11:07,640 --> 00:11:10,330 Dva milijuna dolara? 213 00:11:10,330 --> 00:11:12,030 Vi bi stavili dva milijuna? 214 00:11:12,030 --> 00:11:14,079 A kako se vi zovete? 215 00:11:14,080 --> 00:11:15,410 Voicheck. 216 00:11:15,410 --> 00:11:17,329 Voicheck kaže, moramo uzeti u obzir inflaciju 217 00:11:17,330 --> 00:11:19,640 Trebali bi biti velikodušniji. 218 00:11:19,640 --> 00:11:25,170 Bi li tada smatrali da je ovo ispravan način razmišljanja o tom pitanju? 219 00:11:25,170 --> 00:11:27,310 Pretpostavljam, nažalost tu negdje treba staviti broj, 220 00:11:27,310 --> 00:11:29,589 nisam siguran koji bi to broj bio, ali se slažem da bi se mogao staviti broj 221 00:11:29,590 --> 00:11:32,980 na ljudski život. 222 00:11:32,980 --> 00:11:37,330 223 00:11:37,330 --> 00:11:39,490 224 00:11:39,490 --> 00:11:41,060 225 00:11:41,060 --> 00:11:42,439 U redu. Dakle Voicheck kaže, 226 00:11:42,440 --> 00:11:44,420 227 00:11:44,420 --> 00:11:46,280 i tu se ne slaže s Julie, ... 228 00:11:46,280 --> 00:11:46,649 229 00:11:46,649 --> 00:11:49,750 Julie kaže, ne možemo staviti broj na ljudski život u svrhu analize troškova i koristi. 230 00:11:49,750 --> 00:11:53,670 Voicheck kaže - moramo jer moramo donositi odluke, nekako. 231 00:11:53,670 --> 00:11:59,870 232 00:11:59,870 --> 00:12:04,750 Što drugi misle o tome? 233 00:12:04,750 --> 00:12:06,270 Je li itko ovdje spreman braniti analizu troškova i koristi? 234 00:12:06,270 --> 00:12:09,810 Kao točnu i poželjnu? 235 00:12:09,810 --> 00:12:16,000 Ja mislim kad Ford i druge auto kompanije ne bi koristile analizu troškova i koristi 236 00:12:16,000 --> 00:12:18,949 na koncu bi propale jer ne bi mogle biti profitabilne 237 00:12:18,949 --> 00:12:23,139 i milijuni ljudi ne bi mogli koristiti njihove aute za odlazak na posao 238 00:12:23,139 --> 00:12:27,939 kako bi prehranili svoju djecu. 239 00:12:27,939 --> 00:12:29,699 Zato mislim da ako se ne koristi analiza troškova i dobiti 240 00:12:29,700 --> 00:12:31,870 žrtvuje se opće dobro u tom slučaju. 241 00:12:31,870 --> 00:12:34,810 Dobro, da vas pitam kako se zovete? 242 00:12:34,810 --> 00:12:37,599 Raul. 243 00:12:37,600 --> 00:12:41,760 Raul, nedavno je provedena studija o upotrebi mobitela u autu za vrijeme vožnje 244 00:12:41,760 --> 00:12:43,090 245 00:12:43,090 --> 00:12:47,080 i vodi se diskusija o tome treba li to zabraniti 246 00:12:47,080 --> 00:12:48,660 247 00:12:48,660 --> 00:12:50,689 Procjena je da oko 2000 ljudi umire u nesrećama svake godine 248 00:12:50,690 --> 00:12:54,990 zbog korištenja mobitela. 249 00:12:54,990 --> 00:12:57,280 250 00:12:57,280 --> 00:12:59,240 251 00:12:59,240 --> 00:13:02,120 252 00:13:02,120 --> 00:13:07,860 a ipak analiza troškova i koristi koju je napravio Centar za analizu rizika na Harvardu 253 00:13:07,860 --> 00:13:10,520 ustanovila je da ako pogledate prednosti korištenja mobitela 254 00:13:10,520 --> 00:13:13,560 255 00:13:13,560 --> 00:13:15,089 i procijenite vrijednost života, dođe skoro na isto 256 00:13:15,090 --> 00:13:19,050 257 00:13:19,050 --> 00:13:23,290 zbog goleme ekonomske korisnosti omogućavanja ljudima da iskoriste vrijeme, 258 00:13:23,290 --> 00:13:27,370 da ne gube vrijeme, da mogu ugovarati poslove i razgovarati s prijateljima i tako dalje 259 00:13:27,370 --> 00:13:30,370 za vrijeme vožnje. 260 00:13:30,370 --> 00:13:32,060 Ne sugerira li to da je pogrešno ljudski život vrednovati novčanim iznosima? 261 00:13:32,060 --> 00:13:35,619 262 00:13:35,620 --> 00:13:37,590 263 00:13:37,590 --> 00:13:39,330 Pa, ja mislim da ako velika većina ljudi 264 00:13:39,330 --> 00:13:41,780 265 00:13:41,780 --> 00:13:47,569 pokušava izvući maksimum korisnosti iz usluge kao što je upotreba mobitela 266 00:13:47,570 --> 00:13:47,989 i pogodnosti koju pružaju mobiteli, 267 00:13:47,989 --> 00:13:50,400 tada je žrtva nužna 268 00:13:50,400 --> 00:13:52,160 da bi ljudi bili zadovoljni. 269 00:13:52,160 --> 00:13:53,230 270 00:13:53,230 --> 00:13:59,200 Vi ste otvoreno utilitarista. 271 00:13:59,200 --> 00:14:02,820 Da. 272 00:14:02,820 --> 00:14:05,810 Zadnje pitanje Raul, 273 00:14:05,810 --> 00:14:07,829 a postavio sam ga i Voichecku. 274 00:14:07,829 --> 00:14:12,870 Koliko bi morala biti cijena ljudskog života u dolarima da bi se zabranilo korištenje mobitela? 275 00:14:12,870 --> 00:14:14,640 Ne želim proizvoljno računati brojke ovoga časa... 276 00:14:14,640 --> 00:14:16,199 277 00:14:16,200 --> 00:14:18,140 278 00:14:18,140 --> 00:14:19,370 279 00:14:21,350 --> 00:14:23,610 Želite li to uzeti u razmatranje? 280 00:14:23,610 --> 00:14:24,790 Da, uzet ću to ... 281 00:14:24,790 --> 00:14:28,689 Ali ugrubo koliko bi to bilo? Imate 2300 smrti, 282 00:14:28,690 --> 00:14:32,400 morate odrediti dolarsku vrijednost da biste znali želite li spriječiti te smrti 283 00:14:32,400 --> 00:14:37,069 zabranom upotrebe mobitela u autima. 284 00:14:37,070 --> 00:14:38,900 Pa, koje bi bilo vaše nagađanje? 285 00:14:38,900 --> 00:14:40,350 Koliko? 286 00:14:40,350 --> 00:14:40,799 Milijun, dva milijuna? 287 00:14:40,799 --> 00:14:42,280 288 00:14:42,280 --> 00:14:44,410 Dva milijuna je bila Voitechova cifra. 289 00:14:44,410 --> 00:14:46,120 Je li to otprilike točno? 290 00:14:46,120 --> 00:14:50,500 Možda milijun. 291 00:14:50,500 --> 00:14:55,110 Milijun?! 292 00:14:55,110 --> 00:15:00,440 Dobro je, hvala. 293 00:15:00,440 --> 00:15:01,859 To su neke kontraverze koje proizlaze iz analize troškova i koristi, 294 00:15:01,859 --> 00:15:06,770 posebno one koje uključuju pridjeljivanje dolarske vrijednosti svemu što ulazi u zbroj. 295 00:15:06,770 --> 00:15:08,840 Sada bih se želio okrenuti vašim prigovorima, 296 00:15:08,840 --> 00:15:15,110 vašim prigovorima ne nužno na analizu troškova i koristi izričito, 297 00:15:15,110 --> 00:15:18,400 jer to je samo jedna verzija utilitarističke logike u današnjoj praksi, 298 00:15:18,400 --> 00:15:21,959 299 00:15:21,960 --> 00:15:26,830 nego na teoriju u cjelini, 300 00:15:26,830 --> 00:15:30,000 ideji da je ispravni postupak, 301 00:15:30,000 --> 00:15:33,710 pravedna osnova za politiku i zakon, 302 00:15:33,710 --> 00:15:35,559 maksimiziranje korisnosti. 303 00:15:35,559 --> 00:15:39,750 304 00:15:39,750 --> 00:15:41,590 Koliko vas se ne slaže s utilitarističkim pristupom 305 00:15:41,590 --> 00:15:43,359 306 00:15:43,359 --> 00:15:44,330 307 00:15:44,330 --> 00:15:46,390 zakonu i općem dobru? 308 00:15:46,390 --> 00:15:48,480 309 00:15:48,480 --> 00:15:52,230 Koliko vas se slaže? 310 00:15:52,230 --> 00:15:55,200 Dakle više vas je koji se slažu ngo onih koji se ne slažu. 311 00:15:55,200 --> 00:15:59,560 Pa da čujemo kritičare. 312 00:15:59,560 --> 00:16:02,209 Moj glavni problem s tim je da mi se čini da ne možete reći ... 313 00:16:02,209 --> 00:16:06,280 samo zato što je netko u manjini, da su njegove želje i potrebe manje vrijedne 314 00:16:06,280 --> 00:16:11,650 nego onih koji su u većini. 315 00:16:11,650 --> 00:16:14,189 Pretpostavljam da imam problem s idejom da je 316 00:16:14,190 --> 00:16:16,099 'najveće dobro za najveći broj' u redu jer što je onda s ljudima kojih je manji broj, 317 00:16:16,099 --> 00:16:18,070 318 00:16:18,070 --> 00:16:21,040 319 00:16:21,040 --> 00:16:24,719 To nije fer prema njima jer nemaju pravo glasa o tome što oni žele. 320 00:16:24,720 --> 00:16:25,840 321 00:16:25,840 --> 00:16:28,880 To je zanimljiv prigovor, vi brinete o učinku na manjinu? 322 00:16:28,880 --> 00:16:32,460 Da. 323 00:16:32,460 --> 00:16:34,940 Usput, kako se zovete? 324 00:16:34,940 --> 00:16:39,819 Anna. 325 00:16:39,819 --> 00:16:41,689 Tko ima odgovor na Anninu brigu za učinak na manjinu? 326 00:16:41,690 --> 00:16:42,540 Što kažete Anni? 327 00:16:42,540 --> 00:16:47,490 Ona kaže da manjine vrijede manje. Ja mislim da to nije slučaj 328 00:16:47,490 --> 00:16:51,339 jer pojedinci u manjini vrijede sasvim jednako kao pojedinci u većini. 329 00:16:51,339 --> 00:16:54,520 Samo je stvar u tome da brojevi prevladavaju manjinu. 330 00:16:54,520 --> 00:16:55,670 331 00:16:55,670 --> 00:16:58,919 U određenom trenutku morate donijeti odluku, 332 00:16:58,919 --> 00:17:01,510 žao mi je manjine, ali ponekad je to za veće dobro. 333 00:17:01,510 --> 00:17:02,640 334 00:17:02,640 --> 00:17:03,670 335 00:17:03,670 --> 00:17:08,839 Za veće dobro. Anna, što vi kažete? Vaše ime? 336 00:17:08,839 --> 00:17:10,839 Youngda. 337 00:17:10,839 --> 00:17:13,589 Youngda kaže morate samo zbrojiti preferencije ljudi, 338 00:17:13,589 --> 00:17:17,698 a oni preferencije onih u manjini zaista se mjere. 339 00:17:17,699 --> 00:17:22,000 Možete li dati neki primjer za ono što vas brine 340 00:17:22,000 --> 00:17:24,880 kad kažete da ste zabrinuti da utilitarizam krši interes i uvažavanje manjine? 341 00:17:24,880 --> 00:17:27,970 342 00:17:27,970 --> 00:17:29,730 Možete li dati neki primjer? 343 00:17:29,730 --> 00:17:35,179 Pa u odnosu na svaki od slučajeva o kojima smo govorili, poput brodoloma, 344 00:17:35,179 --> 00:17:36,450 mislima da je dječak koji pojeden ipak imao jednako pravo na život kao i drugi ljudi, 345 00:17:36,450 --> 00:17:39,700 346 00:17:39,700 --> 00:17:39,980 347 00:17:39,980 --> 00:17:43,560 348 00:17:43,560 --> 00:17:44,710 a samo zato što je bio 'manjina' u tom slučaju, 349 00:17:44,710 --> 00:17:45,980 onaj koji je možda imao manje šanse da nastavi živjeti, 350 00:17:48,120 --> 00:17:50,610 351 00:17:50,610 --> 00:17:53,459 352 00:17:53,460 --> 00:17:54,870 to ne znači da drugi automatski imaju pravo da ga pojedu 353 00:17:54,870 --> 00:17:58,449 354 00:17:58,450 --> 00:17:59,680 samo zato jer bi to većem broju ljudi pružilo šansu da preživi. 355 00:17:59,680 --> 00:18:01,849 356 00:18:01,849 --> 00:18:03,290 357 00:18:03,290 --> 00:18:05,740 Dakle, možda postoje određena prava koja imaju manjine odnosno pojedinac 358 00:18:05,740 --> 00:18:07,850 359 00:18:07,850 --> 00:18:12,550 koja ne bi smjela biti razmjenjivana u ime korisnosti? 360 00:18:12,550 --> 00:18:14,399 361 00:18:14,400 --> 00:18:16,520 362 00:18:16,520 --> 00:18:18,210 Da, Anna? 363 00:18:18,210 --> 00:18:21,990 Ovo bi bio test za vas. 364 00:18:21,990 --> 00:18:24,550 U drevnom Rimu bacali su kršćane lavovima u koloseumu iz sporta. 365 00:18:24,550 --> 00:18:29,510 366 00:18:29,510 --> 00:18:33,890 Ako razmislite o načinu utilitarističkog računanja - 367 00:18:33,890 --> 00:18:38,770 da, krščanin bačen lavu proživljava ogromni neipodnošljivi bol, 368 00:18:38,770 --> 00:18:45,770 ali pogledajte kolektivnu ekstazu Rimljana! 369 00:18:48,460 --> 00:18:50,580 Youngda. 370 00:18:50,580 --> 00:18:51,889 Pa, u to vrijeme ... 371 00:18:51,890 --> 00:18:53,250 372 00:18:54,920 --> 00:19:01,710 U moderno vrijeme, uzimajući u obzir radost pruženu ljudima koji gledaju, 373 00:19:01,710 --> 00:19:02,900 374 00:19:02,900 --> 00:19:05,300 375 00:19:05,300 --> 00:19:07,490 mislim da niti jedan kreator politike ne bi rekao da je patnja jednog čovjeka puno ... 376 00:19:07,490 --> 00:19:11,390 377 00:19:11,390 --> 00:19:14,680 u usporedbi sa radošću koju donosi ... 378 00:19:14,680 --> 00:19:20,460 Ne, ali morate priznati da u slučaju da je dovoljan broj Rimljana bio izbezumljen od sreće 379 00:19:20,460 --> 00:19:25,220 to bi prevladalo nad čak i najužasniju bol nekolicine kršćana bačenih lavovima. 380 00:19:25,220 --> 00:19:28,600 381 00:19:28,600 --> 00:19:33,570 Dakle, zaista ovdje imamo dva različita prigovora utilitarizmu. 382 00:19:33,570 --> 00:19:35,030 Jedan se odnosi na primjereno poštovanje ljudskih prava odnosno prava manjina. 383 00:19:35,030 --> 00:19:37,850 384 00:19:37,850 --> 00:19:39,559 385 00:19:39,559 --> 00:19:40,740 386 00:19:40,740 --> 00:19:42,500 387 00:19:42,500 --> 00:19:45,150 A drugi se odnosi na cijelu ideju objedinjavanja korisnosti ili preferencija ili vrijednosti. 388 00:19:45,150 --> 00:19:46,940 389 00:19:46,940 --> 00:19:48,980 390 00:19:48,980 --> 00:19:49,900 391 00:19:49,900 --> 00:19:51,610 392 00:19:51,610 --> 00:19:53,070 393 00:19:53,070 --> 00:19:56,470 Da li je moguće objediniti sve vrijednosti i prevesti ih u dolarsku vrijednost? 394 00:19:56,470 --> 00:19:58,050 395 00:19:58,050 --> 00:20:00,360 396 00:20:00,360 --> 00:20:02,479 1930.-ih bio je jedan psiholog koji pokušao govoriti o drugom pitanju, 397 00:20:02,480 --> 00:20:07,000 398 00:20:07,000 --> 00:20:09,190 399 00:20:09,190 --> 00:20:10,840 400 00:20:10,840 --> 00:20:12,370 401 00:20:12,370 --> 00:20:15,850 pokušao je dokazati ono što utilitarizam pretpostavlja, 402 00:20:15,850 --> 00:20:18,530 403 00:20:18,530 --> 00:20:22,040 da je zaista moguće prevesti sve robe, sve vrijednosti, 404 00:20:22,040 --> 00:20:23,230 sve do čega je ljudima stalo, 405 00:20:23,230 --> 00:20:27,309 406 00:20:27,309 --> 00:20:28,908 u jedinstvenu uniformnu mjeru, 407 00:20:28,909 --> 00:20:30,230 a to je učinio tako da je proveo anketu među mladim primateljima socijalne pomoći. 408 00:20:30,230 --> 00:20:32,660 409 00:20:32,660 --> 00:20:37,610 To je bilo 1930. -te. 410 00:20:37,610 --> 00:20:42,000 Dao im je listu neugodnih doživljaja 411 00:20:42,000 --> 00:20:45,360 i pitao ih, 'Koliko bi trebali biti plaćeni da pristanete proživjeti ove stvari?' 412 00:20:45,360 --> 00:20:49,899 I vodio je bilješke. 413 00:20:49,900 --> 00:20:51,040 Na primjer, 'Koliko biste morali biti plaćeni da pristanete na vađenje prednjeg gornjeg zuba?' 414 00:20:51,040 --> 00:20:57,240 415 00:20:57,240 --> 00:21:04,240 ili 'Koliko bi trebali biti plaćeni da pristanete da vam se odsječe jedan mali nožni prst?' 416 00:21:05,030 --> 00:21:11,649 ili ' da jedete žive gliste od 20 cm' 417 00:21:11,650 --> 00:21:18,650 ili 'da ostatak života proživite na farmi u Kansasu' 418 00:21:19,430 --> 00:21:24,480 ili 'da golim rukama zadavite mačku lutalicu'? 419 00:21:24,480 --> 00:21:26,140 420 00:21:26,140 --> 00:21:32,900 Što mislite, koja je bila najskuplja stavka na toj listi? 421 00:21:32,900 --> 00:21:39,750 Kansas? 422 00:21:39,750 --> 00:21:44,840 U pravu ste, bio je to Kansas. 423 00:21:44,840 --> 00:21:46,059 Za Kansas ljudi su rekli da bi morali biti plaćeni 300.000 dolara. 424 00:21:46,059 --> 00:21:47,619 425 00:21:47,619 --> 00:21:51,980 426 00:21:57,340 --> 00:21:59,800 Što mislite koja je bila sljedeća najskuplja stavka? 427 00:21:59,800 --> 00:22:03,139 428 00:22:03,140 --> 00:22:06,010 Nije mačka, 429 00:22:06,010 --> 00:22:08,190 nije zub, 430 00:22:08,190 --> 00:22:11,250 nije nožni prst, 431 00:22:11,250 --> 00:22:16,580 glista! 432 00:22:16,580 --> 00:22:20,600 Ljudi su rekli da bi im trebali platiti sto tisuća dolara da pojedu glistu! 433 00:22:20,600 --> 00:22:23,419 434 00:22:23,420 --> 00:22:28,010 Što mislite da je bila najmanje skupa stavka? 435 00:22:28,010 --> 00:22:30,010 Nije mačka, 436 00:22:30,010 --> 00:22:31,300 zub! 437 00:22:31,300 --> 00:22:34,990 U vrijeme depresije ljudi su bili voljni da im se izvadi zub za samo 4.500 dolara. 438 00:22:34,990 --> 00:22:39,600 439 00:22:39,600 --> 00:22:40,669 440 00:22:42,020 --> 00:22:45,010 Evo što je Thorndike zaključio iz svog istraživanja: 441 00:22:45,010 --> 00:22:48,460 442 00:22:48,460 --> 00:22:51,650 svaka želja ili užitak koji postoje, postoje u nekoj količini i stoga su mjerljivi. 443 00:22:51,650 --> 00:22:54,600 444 00:22:54,600 --> 00:22:55,949 Život psa ili mačke ili kokoši 445 00:22:55,950 --> 00:22:57,010 446 00:22:57,010 --> 00:22:59,430 sastoji se od 447 00:22:59,430 --> 00:23:00,979 gladi, žudnji, želja i zadovoljenja. 448 00:23:00,979 --> 00:23:01,880 449 00:23:01,880 --> 00:23:04,290 450 00:23:04,290 --> 00:23:05,750 Isto vrijedi za život ljudskih bića, iako su apetiti i želje kompliciraniji. 451 00:23:05,750 --> 00:23:06,940 452 00:23:06,940 --> 00:23:09,409 453 00:23:09,409 --> 00:23:12,450 454 00:23:12,450 --> 00:23:14,330 Ali što je s Thorndikeovom studijom? 455 00:23:14,330 --> 00:23:15,990 456 00:23:15,990 --> 00:23:17,870 Podržava li ona Benthamovu ideju 457 00:23:17,870 --> 00:23:20,209 458 00:23:20,210 --> 00:23:22,130 da sva dobra, sve vrijednosti 459 00:23:22,130 --> 00:23:28,390 mogu biti obuhvaćeni jednom uniformnom mjerom vrijednosti 460 00:23:28,390 --> 00:23:34,289 ili besmislenost stavki na listi 461 00:23:34,289 --> 00:23:37,220 sugerira suprotni zaključak 462 00:23:37,220 --> 00:23:40,290 da možda - bez obzira govorimo li o životu ili Kanzasu ili glisti - 463 00:23:40,290 --> 00:23:42,120 464 00:23:42,120 --> 00:23:44,179 465 00:23:44,180 --> 00:23:45,440 možda stvari koje su nam vrijedne i važne 466 00:23:45,440 --> 00:23:47,810 467 00:23:47,810 --> 00:23:49,399 468 00:23:49,400 --> 00:23:51,350 ne mogu biti obuhvaćene jednom uniformnom mjerom vrijednosti. 469 00:23:51,350 --> 00:23:54,280 470 00:23:54,280 --> 00:23:56,129 A ako ne mogu, koje su posljedice za utilitarističku teoriju morala? 471 00:23:56,130 --> 00:23:57,910 472 00:23:57,910 --> 00:24:00,740 473 00:24:00,740 --> 00:24:02,180 474 00:24:02,180 --> 00:24:09,180 To je pitanje kojim ćemo nastaviti drugi puta. 475 00:24:13,179 --> 00:24:15,530 Uzmimo sada drugi dio glasova. 476 00:24:15,530 --> 00:24:17,680 KAKO MJERITI UGODU 477 00:24:17,680 --> 00:24:19,309 Koji je doživljaj najvećeg užitka? 478 00:24:19,309 --> 00:24:21,470 479 00:24:21,470 --> 00:24:23,410 480 00:24:23,410 --> 00:24:25,659 Koliko vas kaže Shakespeare? 481 00:24:25,659 --> 00:24:31,720 482 00:24:31,720 --> 00:24:38,120 Koliko vas kaže Fear Factor (Faktor straha serija)? 483 00:24:38,120 --> 00:24:39,760 Ne, nemoguće da ste ozbiljni, zaista? 484 00:24:39,760 --> 00:24:46,160 485 00:24:46,160 --> 00:24:48,530 486 00:24:48,530 --> 00:24:53,510 Prošli puta počeli smo razmatrati neke prigovore 487 00:24:53,510 --> 00:24:56,570 na verziju utilitarizma Jeremy Benthama. 488 00:24:56,570 --> 00:25:01,790 489 00:25:01,790 --> 00:25:04,950 U raspravi koju smo vodili ljudi su iznijeli dva prigovora. 490 00:25:04,950 --> 00:25:08,380 491 00:25:08,380 --> 00:25:10,600 Prvi prigovor, tvrdnja je bila 492 00:25:10,600 --> 00:25:12,709 493 00:25:12,710 --> 00:25:14,760 da utilitarizam baveći se 'najvećim dobrom za najveći broj' 494 00:25:14,760 --> 00:25:16,970 495 00:25:16,970 --> 00:25:20,110 496 00:25:20,110 --> 00:25:23,120 propušta adekvatno poštovati prava pojedinca. 497 00:25:23,120 --> 00:25:25,479 498 00:25:25,480 --> 00:25:28,880 Danas imamo debate o mučenju i terorizmu. 499 00:25:28,880 --> 00:25:29,990 500 00:25:29,990 --> 00:25:33,610 501 00:25:33,610 --> 00:25:35,139 Pretpostavimo da je osumnjičeni terorist uhićen 10. rujna 502 00:25:35,140 --> 00:25:41,350 503 00:25:41,350 --> 00:25:44,189 i imate razloga vjerovati da je osumnjičeni 504 00:25:44,190 --> 00:25:46,490 imao ključne informacije o predstojećem terorističkom napadu 505 00:25:46,490 --> 00:25:51,230 u kojem će poginuti preko 3000 ljudi. 506 00:25:51,230 --> 00:25:52,200 507 00:25:52,200 --> 00:25:55,690 I ne može izvući informacije iz njega? 508 00:25:55,690 --> 00:25:57,670 Da li bi bilo pravedno mučiti osumnjičenika 509 00:25:57,670 --> 00:25:59,440 510 00:25:59,440 --> 00:26:01,070 511 00:26:01,070 --> 00:26:03,060 kako bi se dobile informacije? 512 00:26:03,060 --> 00:26:05,550 Ili 513 00:26:05,550 --> 00:26:07,770 Ili kažete - Ne - postoji kategorična moralna obaveza poštovanja prava pojedinca 514 00:26:07,770 --> 00:26:14,550 515 00:26:14,550 --> 00:26:17,899 Na neki način vratili smo se na pitanje s kojim smo počeli, 516 00:26:17,900 --> 00:26:23,910 o tramvaju i transplantaciji organ. To je prvo sporno pitanje. 517 00:26:23,910 --> 00:26:29,250 I sjećate se da smo razmatrali neke primjere analize troškova i koristi. 518 00:26:29,250 --> 00:26:33,870 Ali mnogo ljudi nije bilo zadovoljno s analizom troškova i koristi 519 00:26:33,870 --> 00:26:39,969 kad se radilo o pridjeljivanju dolarske vrijednosti ljudskom životu. 520 00:26:39,970 --> 00:26:42,290 I to nas je dovelo do drugog prigovora 521 00:26:42,290 --> 00:26:44,500 522 00:26:44,500 --> 00:26:48,810 koji je doveo u pitanje mogućnost prevođenja svih vrijednosti 523 00:26:48,810 --> 00:26:52,879 na jednu uniformnu mjeru vrijednosti. 524 00:26:52,880 --> 00:26:57,580 Drugim riječima, pitanje je jesu li sve vrijednosti sumjerljive. 525 00:26:57,580 --> 00:27:00,080 Da vam dam još jedan primjer, ustvari istinitu priču iz osobnog iskustva, 526 00:27:00,080 --> 00:27:01,299 527 00:27:01,299 --> 00:27:07,240 528 00:27:07,240 --> 00:27:12,900 koja barem postavlja pitanje mogu se sve vrijednosti prevesti bez gubitka 529 00:27:12,900 --> 00:27:14,060 530 00:27:14,060 --> 00:27:20,158 u utilitaritarističke termine. 531 00:27:20,159 --> 00:27:22,390 Prije nekoliko godina 532 00:27:22,390 --> 00:27:28,080 kad sam bio na diplomskom studiju na Oxfordu u Engleskoj, 533 00:27:28,080 --> 00:27:29,800 i postojali su muški i ženski fakulteti, još nisu bili pomiješani. 534 00:27:29,800 --> 00:27:31,428 I ženski fakulteti imali su pravila zabrane noćnih posjeta za muške goste. 535 00:27:31,429 --> 00:27:33,590 536 00:27:33,590 --> 00:27:37,470 537 00:27:37,470 --> 00:27:40,080 U 1970.-ima ta su se pravila rijetko provodila i često kršila 538 00:27:40,080 --> 00:27:44,030 539 00:27:44,030 --> 00:27:51,030 ili mi je tako bilo rečeno. 540 00:27:51,600 --> 00:27:56,549 Kasnih sedamdesetih, kad sam ja bio tamo, porastao je pritisak za ublažavanje tih pravila 541 00:27:56,549 --> 00:28:01,100 i to postalo predmet diskusije na St. Anne College, 542 00:28:01,100 --> 00:28:03,840 koji je bio jedan od tih fakulteta samo za žene. 543 00:28:03,840 --> 00:28:06,629 Starije žene na fakultetu bile su tradicionalisti, 544 00:28:06,630 --> 00:28:10,720 protivile su se promjeni na konvencionalnim moralnim osnovama. 545 00:28:10,720 --> 00:28:12,820 546 00:28:12,820 --> 00:28:14,320 No, vremena su se promijenila i bilo im je neugodno 547 00:28:14,320 --> 00:28:17,110 548 00:28:17,110 --> 00:28:20,000 iznijeti pravu osnovu njihovih prigovora. 549 00:28:20,000 --> 00:28:22,809 I zato su svoje argumente prevele u utilitarističke termine. 550 00:28:22,809 --> 00:28:26,120 551 00:28:26,120 --> 00:28:27,419 Ako muškarci ostaju preko noći, tvrdile su, povećat će se troškovi fakulteta. 552 00:28:27,420 --> 00:28:31,680 553 00:28:31,680 --> 00:28:33,490 Kako, možda se pitate? 554 00:28:33,490 --> 00:28:39,429 Pa, poželjet će se okupati i potrošit će našu toplu vodu, rekle su. 555 00:28:39,429 --> 00:28:40,779 Nadalje, tvrdile su, morat ćemo češće mijenjati madrace. 556 00:28:40,779 --> 00:28:46,780 557 00:28:46,780 --> 00:28:48,379 Reformatori su udovoljili tim zahtjevima prihvaćajući sljedeće kompromise: 558 00:28:48,380 --> 00:28:52,250 svaka žena može imati do tri noćna gosta tjedno 559 00:28:52,250 --> 00:28:53,280 560 00:28:53,280 --> 00:29:00,280 561 00:29:01,160 --> 00:29:05,940 - nisu rekli da li to mora biti ista osoba ili tri različite - 562 00:29:05,940 --> 00:29:06,800 uz uvjet, i u tome je bio kompromis, uz uvjet 563 00:29:06,800 --> 00:29:09,240 564 00:29:09,240 --> 00:29:10,400 gost je plaćao 50 pensa da namiri trošak fakulteta. 565 00:29:10,400 --> 00:29:15,340 566 00:29:15,340 --> 00:29:17,179 Sljedeći dan pojavio se naslov u nacionalnim novinama: 567 00:29:17,180 --> 00:29:23,080 'Djevojke na St Anne, 50 pensa za noć'! 568 00:29:29,500 --> 00:29:31,040 Još jedna ilustracija teškoće prevođenja svih vrijednosti, 569 00:29:31,040 --> 00:29:31,730 570 00:29:31,730 --> 00:29:34,730 571 00:29:34,730 --> 00:29:36,150 572 00:29:36,150 --> 00:29:38,930 - u ovom slučaju određene ideje vrline - 573 00:29:38,930 --> 00:29:44,200 u utilitarističke termine. 574 00:29:44,200 --> 00:29:46,980 Dakle, ovo je kao ilustracija drugog prigovora utilitarizmu, 575 00:29:46,980 --> 00:29:48,830 576 00:29:48,830 --> 00:29:52,679 bar onog dijela tog prigovora koji dovodi u pitanje 577 00:29:52,680 --> 00:29:54,780 578 00:29:54,780 --> 00:29:56,620 ispravnost utilitarizma u stajalištu 579 00:29:56,620 --> 00:29:58,809 da možemo prihvatiti uniformnost vrijednosti, sumjerljivost svih vrijednosti, 580 00:29:58,809 --> 00:30:00,670 581 00:30:00,670 --> 00:30:02,420 582 00:30:02,420 --> 00:30:08,230 i prevesti sva moralna razmatranja u dolare odnosno novac. 583 00:30:08,230 --> 00:30:09,740 584 00:30:09,740 --> 00:30:10,280 585 00:30:10,280 --> 00:30:12,220 586 00:30:12,220 --> 00:30:14,510 No postoji i drugi aspekt brige u vezi agregiranja vrijednosti i preferencija. 587 00:30:14,510 --> 00:30:19,690 588 00:30:19,690 --> 00:30:21,990 Zašto bismo trebali odvagnuti sve preferencije koje ljudi imaju 589 00:30:21,990 --> 00:30:23,120 590 00:30:23,120 --> 00:30:25,260 591 00:30:25,260 --> 00:30:27,390 592 00:30:27,390 --> 00:30:32,650 bez procjenjivanja jesu li te preferencije dobre ili loše? 593 00:30:32,650 --> 00:30:35,120 Ne bismo li trebali razlikovati više i niže užitke? 594 00:30:35,120 --> 00:30:36,010 595 00:30:36,010 --> 00:30:37,590 596 00:30:37,590 --> 00:30:38,260 597 00:30:38,260 --> 00:30:41,760 598 00:30:41,760 --> 00:30:44,250 Dio sklonosti da ne radimo kvalitatine razlike između vrijednosti preferencija ljudi, 599 00:30:44,250 --> 00:30:49,380 600 00:30:49,380 --> 00:30:50,820 djelomično smo tome skloni zato jer je to neosuđujuće i egalitaristički. 601 00:30:50,820 --> 00:30:55,250 602 00:30:55,250 --> 00:30:58,110 Benthamski utilitarista kaže: 603 00:30:58,110 --> 00:31:01,199 Svačije preferencije se računaju bez obzira na to što ljudi žele, 604 00:31:01,200 --> 00:31:04,890 605 00:31:04,890 --> 00:31:08,580 bez obzira na to što veseli različite ljude. 606 00:31:08,580 --> 00:31:09,530 Za Benthama, važno je jedino, sjetit ćete se, 607 00:31:09,530 --> 00:31:11,250 intenzitet ili trajanje zadovoljstva ili boli. 608 00:31:11,250 --> 00:31:12,960 609 00:31:12,960 --> 00:31:16,010 610 00:31:16,010 --> 00:31:18,270 611 00:31:18,270 --> 00:31:24,040 Takozvana viša zadovoljstva ili plemenite vrline su jednostavno one, prema Benthamu, 612 00:31:24,040 --> 00:31:25,420 koje proizvode jače, duže zadovoljstvo. 613 00:31:25,420 --> 00:31:26,419 614 00:31:26,419 --> 00:31:29,380 615 00:31:29,380 --> 00:31:32,790 Čuvena fraza za iskazivanje te ideje je 616 00:31:32,790 --> 00:31:35,770 'količina zadovoljstva je jednaka, radi li se o pribadači ili poeziji'. 617 00:31:35,770 --> 00:31:37,059 618 00:31:37,059 --> 00:31:39,519 619 00:31:39,519 --> 00:31:41,789 Što je bila 'pribadača'? 620 00:31:41,789 --> 00:31:46,929 Bila je to neka vrsta dječje igre, 'igra pribadača dobra je koliko i poezija', 621 00:31:46,929 --> 00:31:48,850 rekao je Bentham. 622 00:31:48,850 --> 00:31:50,509 A, mislim da ispod te ideje leži tvrdnja, slutnja, 623 00:31:50,509 --> 00:31:51,510 624 00:31:51,510 --> 00:31:52,779 625 00:31:52,779 --> 00:31:54,090 626 00:31:54,090 --> 00:31:55,870 da je oholo prosuđivati čija su zadovoljstva intrinzično viša ili vrednija ili bolja. 627 00:31:55,870 --> 00:31:57,949 628 00:31:57,950 --> 00:31:58,979 629 00:31:58,979 --> 00:32:00,670 630 00:32:00,670 --> 00:32:03,850 631 00:32:03,850 --> 00:32:07,010 I ima nešto privlačno u tom odbijanju da se prosuđuje, 632 00:32:07,010 --> 00:32:09,770 na koncu neki ljudi vole Mozarta, drugi Madonnu, 633 00:32:09,770 --> 00:32:11,790 634 00:32:11,790 --> 00:32:12,520 635 00:32:12,520 --> 00:32:15,090 neki ljudi vole balet, drugi kuglanje. 636 00:32:15,090 --> 00:32:16,389 637 00:32:16,390 --> 00:32:17,360 638 00:32:17,360 --> 00:32:19,439 Tko kaže, mogao bi tvrditi Bentham, 639 00:32:19,440 --> 00:32:23,140 tko će reći koja od zadovoljstava, 640 00:32:23,140 --> 00:32:24,260 čija zadovoljstva su viša, vrednija, plemenitija od drugih? 641 00:32:24,260 --> 00:32:25,460 642 00:32:25,460 --> 00:32:26,350 643 00:32:26,350 --> 00:32:27,500 644 00:32:27,500 --> 00:32:31,570 645 00:32:31,570 --> 00:32:35,980 Ali, je lli to ispravno? 646 00:32:35,980 --> 00:32:40,310 To odbijanje da radimo kvalitativne razlike. 647 00:32:40,310 --> 00:32:42,179 Možemo li se mi, svi zajedno, odreći ideje 648 00:32:42,180 --> 00:32:45,170 649 00:32:45,170 --> 00:32:49,010 da su određene stvari koje nam čine zadovoljstvo bolje ili vrednije od drugih? 650 00:32:49,010 --> 00:32:50,660 651 00:32:50,660 --> 00:32:53,890 652 00:32:53,890 --> 00:32:58,640 Sjetite se Rimljana u koloseumu, jedna stvar koja je u tome ljude smetala 653 00:32:58,640 --> 00:32:58,960 654 00:32:58,960 --> 00:33:01,170 bilo je da su se time izgleda kršila prava kršćana. 655 00:33:01,170 --> 00:33:04,490 656 00:33:04,490 --> 00:33:07,250 Druga zamjerka onome što se tu događa 657 00:33:07,250 --> 00:33:10,720 je uživanje Rimljana u tom krvavom spektaklu. 658 00:33:10,720 --> 00:33:13,480 659 00:33:13,480 --> 00:33:15,850 Treba li to zadovoljstvo, koje je sramotno i na neki način korumpirano, 660 00:33:15,850 --> 00:33:16,500 661 00:33:16,500 --> 00:33:19,130 662 00:33:19,130 --> 00:33:22,730 ponižavajuće zadovoljstvo. 663 00:33:22,730 --> 00:33:26,960 Treba li to uopće biti valorizirano odnosno vagano pri odlučivanju 664 00:33:26,960 --> 00:33:33,770 o tome što je opće dobro? 665 00:33:33,770 --> 00:33:38,760 Dakle, ovo su prigovori na Benthamov uitlitarizam, 666 00:33:38,760 --> 00:33:42,800 a sada se okrećemo nekome tko je pokušao odgovoriti na te prigovore, 667 00:33:42,800 --> 00:33:45,889 668 00:33:45,890 --> 00:33:47,820 mlađi utilitarista, John Stuart Mill. 669 00:33:47,820 --> 00:33:50,120 670 00:33:50,120 --> 00:33:52,780 Ono što sada trebamo ispitati 671 00:33:52,780 --> 00:33:54,510 672 00:33:54,510 --> 00:33:58,809 je da li John Stuart Mill ima uvjerljivi odgovor na ove prigovore utilitarizmu. 673 00:33:58,809 --> 00:34:05,090 674 00:34:05,090 --> 00:34:06,750 John Stuart Mill je rođen 1806., njegov otac, James Mill bio je Benthamov učenik 675 00:34:06,750 --> 00:34:08,760 676 00:34:08,760 --> 00:34:11,369 677 00:34:11,369 --> 00:34:14,079 678 00:34:14,079 --> 00:34:17,389 i James Mill se odlučio svom sinu, Johnu Stuartu Millu, dati primjereno obrazovanje. 679 00:34:17,389 --> 00:34:20,329 680 00:34:20,329 --> 00:34:22,429 On je bio čudo od djeteta, John Stuart Mill, 681 00:34:22,429 --> 00:34:23,569 682 00:34:23,569 --> 00:34:27,859 znao je grčki s tri godine, latinski s osam, 683 00:34:27,859 --> 00:34:29,139 a u dobi od 10 godina napisao je Povijest rimskog prava. 684 00:34:29,139 --> 00:34:33,659 685 00:34:33,659 --> 00:34:35,649 U dobi od 20 godina doživio je živčani slom, 686 00:34:35,649 --> 00:34:39,129 to ga je bacilo u depresiju pet godina, 687 00:34:39,129 --> 00:34:43,549 ali sa 25, ono što mu je pomoglo da se izvuče iz te depresije 688 00:34:43,549 --> 00:34:46,800 689 00:34:46,800 --> 00:34:49,949 je susret s Harriet Taylor. 690 00:34:49,949 --> 00:34:52,659 Ona Mill su se oženili i živjeli sretno do kraja života 691 00:34:52,659 --> 00:34:54,849 i bilo je to pod njenim utjecajem 692 00:34:54,849 --> 00:34:56,659 693 00:34:56,659 --> 00:34:59,859 da je John Stuart Mill pokušao humanizirati utilitarizam. 694 00:34:59,859 --> 00:35:01,720 695 00:35:01,720 --> 00:35:05,279 Ono što je Mill pokušao je ustanoviti 696 00:35:05,279 --> 00:35:07,710 da li utilitarističko računanje može biti prošireno i modificirano 697 00:35:07,710 --> 00:35:09,029 698 00:35:09,029 --> 00:35:11,200 699 00:35:11,200 --> 00:35:13,759 kako bi zadovoljilo humanitarne dvojbe poput: 700 00:35:13,759 --> 00:35:17,429 701 00:35:17,429 --> 00:35:20,390 brige za poštovanje ljudskih prava 702 00:35:20,390 --> 00:35:24,598 i također razlike između viših i nižih zadovoljstava. 703 00:35:24,599 --> 00:35:26,439 704 00:35:26,439 --> 00:35:30,368 1859. Mill je napisao čuvenu knjigu 'O slobodi', 705 00:35:30,369 --> 00:35:35,399 čija je glavna tema važnost obrane prava pojedinca i prava manjina, 706 00:35:35,399 --> 00:35:36,380 707 00:35:36,380 --> 00:35:38,329 a 1861. pred kraj života 708 00:35:38,329 --> 00:35:40,339 709 00:35:40,339 --> 00:35:43,130 napisao jee knjigu koju čitamo u okviru ovog kolegija 710 00:35:43,130 --> 00:35:45,099 'Utilitarizam'. 711 00:35:45,099 --> 00:35:46,599 U njoj pojašnjava da je korisnost jedino mjerilo moralnosti, po njemu. 712 00:35:46,599 --> 00:35:49,739 713 00:35:49,739 --> 00:35:50,769 714 00:35:50,769 --> 00:35:52,549 Dakle, on ne dovodi u pitanje Benthamovu premisu, 715 00:35:52,550 --> 00:35:53,949 716 00:35:53,949 --> 00:35:55,279 on je potvrđuje. 717 00:35:55,279 --> 00:35:58,829 On vrlo izričito kaže, 'Jedini dokaz da je moguće prozvesti da je sve poželjno, 718 00:35:58,829 --> 00:36:04,659 je taj da ljudi to zaista žele.' 719 00:36:04,659 --> 00:36:05,929 720 00:36:05,929 --> 00:36:11,679 Dakle, on ostaje kod ideje da su de facto empirijske želje jedini temelj za moralnu prosudbu. 721 00:36:11,679 --> 00:36:12,979 722 00:36:12,979 --> 00:36:15,618 723 00:36:15,619 --> 00:36:17,549 Ali onda - strana 8 također u poglavlju 2 - 724 00:36:17,549 --> 00:36:18,979 725 00:36:18,979 --> 00:36:24,879 on tvrdi da je utilitaristi moguće razlikovati viša od nižih zadovoljstava. 726 00:36:24,879 --> 00:36:26,319 727 00:36:26,320 --> 00:36:28,970 Vi koji ste već čitali Milla, 728 00:36:28,970 --> 00:36:30,519 729 00:36:30,519 --> 00:36:32,078 730 00:36:32,079 --> 00:36:33,329 kako je po njemu moguće utvrditi tu razliku? 731 00:36:33,329 --> 00:36:36,559 732 00:36:36,559 --> 00:36:40,079 Kako utilitarista može kvalitativno razlikovati viša zadovoljstva od nižih, 733 00:36:40,079 --> 00:36:42,819 734 00:36:42,819 --> 00:36:43,540 sramotnih, nevrijednih? 735 00:36:43,540 --> 00:36:48,859 736 00:36:48,859 --> 00:36:50,519 Ako ste probali oba, prirodno ćete dati prednost onom višem, uvijek. 737 00:36:50,519 --> 00:36:55,308 738 00:36:55,309 --> 00:36:59,819 Sjajno, to je točno. Kako se zovete? 739 00:36:59,819 --> 00:37:01,759 John. 740 00:37:01,759 --> 00:37:05,019 Pa, kako ističe John, Mills kaže, 741 00:37:05,019 --> 00:37:07,868 'Evo testa, budući da ne možemo iskoračiti izvan stvarnih želja i preferenci, 742 00:37:07,869 --> 00:37:10,490 743 00:37:10,490 --> 00:37:11,649 to bi narušilo utilitarističke pemise, 744 00:37:11,650 --> 00:37:13,670 745 00:37:13,670 --> 00:37:16,819 jedini test 746 00:37:16,819 --> 00:37:17,600 da li je zadovoljstvo više ili niže razine, 747 00:37:17,600 --> 00:37:19,769 748 00:37:19,769 --> 00:37:26,468 je da li bi mu netko tko je doživio oba, dao prednost. 749 00:37:26,469 --> 00:37:28,109 750 00:37:28,109 --> 00:37:29,369 A ovdje, u poglavlju 2, vidimo odlomak u kojem Mill govori ono što je John opisao. 751 00:37:29,369 --> 00:37:31,259 752 00:37:31,259 --> 00:37:32,900 753 00:37:32,900 --> 00:37:37,199 754 00:37:37,199 --> 00:37:42,680 'Od dva zadovoljstva, ako postoji jedno kojem bi svi, ili skoro svi, koji su doživjeli oba, 755 00:37:42,680 --> 00:37:46,219 dali odlučujuću prednost, 756 00:37:46,219 --> 00:37:51,859 bez obzira na bilo kakav osjećaj moralne obaveze da ga preferiraju, 757 00:37:51,859 --> 00:37:53,390 drugim riječima bez ikakvog vanjskog, nezavisnog mjerila, 758 00:37:53,390 --> 00:37:57,529 onda je to poželjnije zadovoljstvo.' 759 00:37:57,529 --> 00:37:59,829 Što ljudi misle o tom argumentu? 760 00:37:59,829 --> 00:38:01,549 761 00:38:01,549 --> 00:38:03,489 Da li je dobar? 762 00:38:03,489 --> 00:38:06,380 Koliko vas misli da je uspješan 763 00:38:06,380 --> 00:38:11,489 za diskusiju o razlikovanju između viših i nižih zadovoljstava u terminima utilitarizma? 764 00:38:11,489 --> 00:38:12,390 Koliko vas misli da nije dobar? 765 00:38:12,390 --> 00:38:17,788 766 00:38:17,789 --> 00:38:20,829 Želim čuti vaše razloge, 767 00:38:20,829 --> 00:38:22,249 ali prije no što izložimo razloge, napravit ćemo jedan pokus 768 00:38:22,249 --> 00:38:23,848 769 00:38:23,849 --> 00:38:26,329 770 00:38:26,329 --> 00:38:28,719 u vezi Millsove tvrdnje. 771 00:38:28,719 --> 00:38:31,569 772 00:38:31,569 --> 00:38:35,199 Da bismo mogli napraviti taj pokus 773 00:38:35,199 --> 00:38:39,859 pogledat ćemo tri kratka isječka popularne zabave. 774 00:38:39,859 --> 00:38:41,558 775 00:38:41,559 --> 00:38:44,889 776 00:38:44,889 --> 00:38:48,170 Prvi je Hamletov monolog 777 00:38:48,170 --> 00:38:52,939 iza kojeg slijede dva druga doživljaja. 778 00:38:52,939 --> 00:38:55,420 779 00:38:55,420 --> 00:38:58,259 Da vidimo što vi mislite. 780 00:38:58,259 --> 00:39:02,249 'Kakvo je remek-djelo čovjek! 781 00:39:02,249 --> 00:39:05,509 Kako plemenit umom! 782 00:39:05,509 --> 00:39:07,579 Kako neograničen u sposobnostima! 783 00:39:07,579 --> 00:39:11,439 U liku i pokretu kako je izražajan i divan! 784 00:39:11,439 --> 00:39:14,949 U djelima kako sličan anđelu, u mislima kako sličan Bogu! 785 00:39:14,949 --> 00:39:16,430 Ljepota svijeta, uzor svim životinjama! 786 00:39:16,430 --> 00:39:18,348 787 00:39:18,349 --> 00:39:21,259 Pa ipak, što je za mene ta kvintesencija prašine? 788 00:39:21,259 --> 00:39:24,689 789 00:39:24,689 --> 00:39:31,689 Čovjek mene ne očarava.' 790 00:39:43,309 --> 00:39:47,749 'Zamislite svijet u kojem vaši najveći strahovi postaju stvarnost. 791 00:39:47,749 --> 00:39:52,609 Svaki show, šest natjecatelja iz cijele zemlje bore se međusobno u tri ekstremne egzibicije. 792 00:39:52,609 --> 00:39:59,609 Te egzibicije smišljene su kao izazovi za natjecatelje, fizički i mentalno. 793 00:40:00,419 --> 00:40:02,288 Šest natjecatelja, tri egzibicije, jedan pobjednik. 794 00:40:02,289 --> 00:40:09,289 Fear Factor. 795 00:40:16,449 --> 00:40:22,919 Simpsoni. 796 00:40:22,919 --> 00:40:25,240 Flanders, otkad ti voliš kul stvari? 797 00:40:25,240 --> 00:40:28,729 Pa, nije mi do brzine, ali obožavam tu zaštitnu opremu, kacige, zaštitne šipke, zastavice. 798 00:40:28,729 --> 00:40:35,499 Ja volim friški zrak i gledati jadnike na terenu. 799 00:40:35,499 --> 00:40:41,319 Dang Cletus, zašto si morao parkirati pokraj mojih roditelja? 800 00:40:41,320 --> 00:40:43,029 Ne draga, to su i moji roditelji. 801 00:40:55,759 --> 00:41:00,629 Ne moram ni pitati koji vam se najviše sviđao. 802 00:41:00,629 --> 00:41:05,109 Simpsoni? Kome su se najviše sviđali Simpsoni? 803 00:41:05,109 --> 00:41:10,140 Kome Shakespeare? 804 00:41:10,140 --> 00:41:12,710 A Fear Factor? 805 00:41:12,710 --> 00:41:15,959 Koliko vas više voli Fear Factor? 806 00:41:15,959 --> 00:41:22,368 Stvarno? 807 00:41:22,369 --> 00:41:24,079 Nadmoćnoj većini sviđaju se Simpsoni 808 00:41:24,079 --> 00:41:25,769 809 00:41:25,769 --> 00:41:29,229 više od Shakespearea. 810 00:41:29,229 --> 00:41:31,598 U redu, uzmimo sad drugi dio glasova. 811 00:41:31,599 --> 00:41:33,749 812 00:41:33,749 --> 00:41:35,799 Koji doživljaj odnosno užitak je najviši? 813 00:41:35,799 --> 00:41:37,529 814 00:41:37,529 --> 00:41:39,409 815 00:41:39,409 --> 00:41:41,729 Koliko ih kaže Shakespeare? 816 00:41:41,729 --> 00:41:47,788 817 00:41:47,789 --> 00:41:49,960 Koliko ih kaže Fear Factor? 818 00:41:49,960 --> 00:41:54,189 819 00:41:54,189 --> 00:41:59,069 Ne, vi se šalite. Ozbiljno? 820 00:41:59,069 --> 00:42:01,038 821 00:42:01,039 --> 00:42:02,709 Samo naprijed, recite. 822 00:42:02,709 --> 00:42:03,439 Ja mislim da je to najzabavnije. 823 00:42:03,439 --> 00:42:04,709 824 00:42:04,709 --> 00:42:09,428 Znam, ali koji doživljaj je za vas najvredniji, najplemenitiji. 825 00:42:09,429 --> 00:42:10,920 Znam da vam je to najzabavnije. 826 00:42:10,920 --> 00:42:15,920 Ako je nešto dobro samo zato što je ugodno, zašto je važno da imate neku apstraktnu ideju 827 00:42:15,920 --> 00:42:17,209 je li to dobro po mjerilima nekog drugog? 828 00:42:17,209 --> 00:42:21,729 829 00:42:21,729 --> 00:42:25,038 Znači vi stajete na stranu Benthama: 830 00:42:25,039 --> 00:42:26,429 tko je taj koji će prosuditi 831 00:42:26,429 --> 00:42:29,279 i zašto bi morali prosuđivati? 832 00:42:29,279 --> 00:42:33,880 Umjesto da samo registriramo i pribrojimo de facto preferencije. U redu, pošteno. 833 00:42:33,880 --> 00:42:35,349 Kako se vi zovete? 834 00:42:35,349 --> 00:42:37,329 Nate? U redu, pošteno. 835 00:42:37,329 --> 00:42:38,219 836 00:42:38,219 --> 00:42:40,919 Koliko vas misli da su Simpsoni ustvari, osim što vam se sviđaju, 837 00:42:40,919 --> 00:42:46,259 da su ustvari doživljaj više razine od Shakespearea? 838 00:42:46,259 --> 00:42:47,420 839 00:42:47,420 --> 00:42:49,309 Da vidiomo ponovo tko je glasao za Shakespearea. 840 00:42:49,309 --> 00:42:52,869 Koliko vas misli da je Shakespeare viši? 841 00:42:52,869 --> 00:42:53,869 842 00:42:53,869 --> 00:42:55,540 843 00:42:55,540 --> 00:42:58,999 Idealno bi bilo da čujem nekoga ... ima li koga tko misli da je Shakespeare najviši, 844 00:42:58,999 --> 00:43:02,109 845 00:43:02,109 --> 00:43:02,989 ali radije gleda Simpsone? 846 00:43:02,989 --> 00:43:04,060 847 00:43:04,060 --> 00:43:08,739 848 00:43:08,739 --> 00:43:14,160 Samo sjediti i gledati Simpsone je zabavno jer se šale i nasmijavaju nas, 849 00:43:14,160 --> 00:43:17,839 ali netko nam mora reći da je Shakespeare veliki pisac, 850 00:43:17,839 --> 00:43:20,630 moramo naučiti kako ga čitati i kako ga razumijeti, 851 00:43:20,630 --> 00:43:23,150 moramo naučiti kako gledati Rembrandta, kako analizirati sliku. 852 00:43:23,150 --> 00:43:25,859 Kako se vi zovete? 853 00:43:25,859 --> 00:43:27,840 Aneesha. 854 00:43:27,840 --> 00:43:31,259 Aneesha, kad kažete da vam je netko rekao da je Shakespeare bolji, 855 00:43:31,259 --> 00:43:37,299 da li to prihvaćate slijepom vjerom? 856 00:43:37,299 --> 00:43:41,529 Glasali ste da je Shakespeare bolji samo zato jer vam to govori kultura ili učitelji? 857 00:43:41,529 --> 00:43:44,049 Ili se zaista sami slažete s tim? 858 00:43:44,049 --> 00:43:48,319 U odnosu na Shakesperea, ne, ali ranije ste dali primjer Rembrandta 859 00:43:48,319 --> 00:43:49,740 860 00:43:49,740 --> 00:43:54,479 i mislim da bih više uživala čitajući strip 861 00:43:54,479 --> 00:43:58,348 nego što bih uživala analizirajući Rembrandta zato jer mi je netko rekao da je veliki slikar. 862 00:43:58,349 --> 00:44:01,699 Dakle vi sugerirate da bi nešto od toga bilo kulturna konvencija i pritisak. 863 00:44:01,699 --> 00:44:05,319 Rečeno nam je koje knjige, koja umjetnička djela su velika. 864 00:44:05,319 --> 00:44:12,319 Tko još? 865 00:44:15,309 --> 00:44:19,640 Iako sam više uživao gledajući Simpsone, ovaj tren na predavanju, 866 00:44:19,640 --> 00:44:23,049 kad bih morao ostatak svog života provesti s jednim od tri prikazana videa, 867 00:44:23,049 --> 00:44:25,369 868 00:44:25,369 --> 00:44:26,869 869 00:44:26,869 --> 00:44:29,119 ne bih želio provesti taj ostatak svog života gledajući zadnja dva videa. 870 00:44:29,119 --> 00:44:31,869 871 00:44:31,869 --> 00:44:33,800 872 00:44:33,800 --> 00:44:36,650 Mislim da bih više užitka našao u tome da budem u stanju 873 00:44:36,650 --> 00:44:38,309 874 00:44:38,309 --> 00:44:39,269 razvijati se u vlastitom umu 875 00:44:39,269 --> 00:44:40,488 baveći se dubljim užicima, dubljim mislima. 876 00:44:40,489 --> 00:44:44,869 877 00:44:44,869 --> 00:44:48,630 Recite mi vaše ime. 878 00:44:48,630 --> 00:44:49,630 Joe. 879 00:44:49,630 --> 00:44:52,559 Joe, dakle kad morali ostatak života provesti 880 00:44:52,559 --> 00:44:55,409 na farmi u Kansasu samo sa Shakespearom ili zbirkom epizoda Simpsona, 881 00:44:55,409 --> 00:44:57,489 882 00:44:57,489 --> 00:45:02,079 883 00:45:02,079 --> 00:45:04,119 vi bi radije odabrali Shakespearea? 884 00:45:04,119 --> 00:45:06,599 885 00:45:06,599 --> 00:45:09,849 Što iz toga zaključujete o testu John Stuart Millsa? 886 00:45:09,849 --> 00:45:12,149 887 00:45:12,149 --> 00:45:15,078 Da test višeg zadovoljstva pokazuje 888 00:45:15,079 --> 00:45:16,359 da li ljudi koji su doživjeli oba preferiraju dotično. 889 00:45:16,359 --> 00:45:18,369 890 00:45:18,369 --> 00:45:21,509 891 00:45:21,509 --> 00:45:23,880 Mogu li ukratko citirati drugi primjer? 892 00:45:23,880 --> 00:45:25,130 Na neurobiologiji prošle godine pričali su nam o pokusu sa štakorom 893 00:45:25,130 --> 00:45:28,769 894 00:45:28,769 --> 00:45:31,209 gdje je štakor mogao stimulirati određeni centar u svom mozgu 895 00:45:31,209 --> 00:45:35,879 tako da doživljava intenzivno zadooljstvo. 896 00:45:35,879 --> 00:45:38,368 Štakor nije jeo ni pio sve dok nije umro. 897 00:45:38,369 --> 00:45:42,179 Štakor je očito doživljavao intenzivno zadovoljstvo. 898 00:45:42,179 --> 00:45:46,269 Pa sada, da me ovaj čas upitate da li bih radije doživio intenzivno zadovoljstvo 899 00:45:46,269 --> 00:45:47,140 900 00:45:47,140 --> 00:45:52,690 ili cijeli život ispunjen višim zadovoljstvom, 901 00:45:52,690 --> 00:45:55,799 - intenzivno zadovoljstvo pritom smatram nižim zadovoljstvom - 902 00:45:55,799 --> 00:46:01,969 rado bih ovaj čas uživao u intenzivnom zadovoljstvu - da, sigurno bi - 903 00:46:01,969 --> 00:46:03,159 ali tokom cijelog života, mislim da bi se većina ovdje složila 904 00:46:03,159 --> 00:46:04,360 905 00:46:04,360 --> 00:46:06,899 906 00:46:06,899 --> 00:46:11,630 da bi radije bili ljudi s višim zadovoljstvom, nego taj štakor s intenzivnim zadovoljstvom 907 00:46:11,630 --> 00:46:13,269 u vrlo kratkom vremenskom periodu. 908 00:46:13,269 --> 00:46:14,930 909 00:46:14,930 --> 00:46:15,870 910 00:46:15,870 --> 00:46:18,959 A odgovarajući na vaše pitanje, to dokazuje da ... 911 00:46:18,959 --> 00:46:21,348 neću reći dokazuje, 912 00:46:21,349 --> 00:46:24,999 mislim da je zaključak da Millsova teorija da ako se pita ljude što bi više voljeli, 913 00:46:24,999 --> 00:46:28,649 914 00:46:28,650 --> 00:46:31,439 915 00:46:31,439 --> 00:46:33,118 većina će odgovoriti da bi radije doživljavali više zadovoljstvo. 916 00:46:33,119 --> 00:46:34,689 Dakle, vi mislite da to podržava ... mislite da je Mills ovdje u pravu? 917 00:46:34,689 --> 00:46:39,499 918 00:46:39,499 --> 00:46:40,738 Da, mislim. 919 00:46:40,739 --> 00:46:42,629 Ima li koga tko se ne slaže s Joeom, 920 00:46:42,629 --> 00:46:46,839 tko misli da naš eksperiment opovrgava Millsov test? 921 00:46:46,839 --> 00:46:48,578 922 00:46:48,579 --> 00:46:49,959 923 00:46:49,959 --> 00:46:51,098 924 00:46:51,099 --> 00:46:53,239 Pokazuje da to nije adekvatan način, 925 00:46:53,239 --> 00:46:57,689 da ne možete raspoznati viša zadovoljstva u okvirima utilitarizma. 926 00:46:57,689 --> 00:47:02,649 927 00:47:05,879 --> 00:47:09,509 Ako je uistinu dobro što god ljudi preferiraju, 928 00:47:09,509 --> 00:47:11,519 onda je to uistinu relativno i ne postoji objektivna definicija. 929 00:47:11,519 --> 00:47:14,888 U nekim društvima ljudi će preferirati Simpsone. 930 00:47:14,889 --> 00:47:15,849 931 00:47:15,849 --> 00:47:21,380 Svatko može uživati u Simpsonima, 932 00:47:21,380 --> 00:47:25,660 ali mislim da je nužna edukacija da se uživa u Shakespeareu. 933 00:47:25,660 --> 00:47:27,319 Vi kažete da je potrebna edukacija za uživanje u višim stvarima. 934 00:47:27,319 --> 00:47:29,719 Millsov stav je da viša zadovoljstva zaista zahtijevaju kultivaciju i edukaciju. 935 00:47:29,719 --> 00:47:32,890 936 00:47:32,890 --> 00:47:35,089 937 00:47:35,090 --> 00:47:37,799 On to ne osporava. 938 00:47:37,799 --> 00:47:38,650 939 00:47:38,650 --> 00:47:41,660 Ali jednom kad su kultivirani i educirani ljudi će uvidjeti, 940 00:47:41,660 --> 00:47:44,029 ne samo da će uvidjeti razliku između viših i nižih zadovoljstava, 941 00:47:44,029 --> 00:47:45,509 942 00:47:45,509 --> 00:47:48,270 943 00:47:48,270 --> 00:47:49,009 944 00:47:49,009 --> 00:47:51,539 nego će zapravo preferirati viša pred nižima. 945 00:47:51,539 --> 00:47:52,769 946 00:47:52,769 --> 00:47:53,970 947 00:47:53,970 --> 00:47:55,848 948 00:47:55,849 --> 00:47:59,519 Naći ćete taj čuveni citat John Stuart Millsa: 949 00:47:59,519 --> 00:48:00,808 'Bolje je biti nezadovoljno ljudsko biće, nego zadovoljna svinja.' 950 00:48:00,809 --> 00:48:03,869 951 00:48:03,869 --> 00:48:06,109 Bolje nezadovoljni Sokrat, nego zadovoljna budala. 952 00:48:06,109 --> 00:48:10,538 953 00:48:10,539 --> 00:48:12,229 A ako budala i svinja različito misle, to je zato jer znaju samo svoju stranu pitanja.' 954 00:48:12,229 --> 00:48:13,439 955 00:48:13,439 --> 00:48:15,538 956 00:48:15,539 --> 00:48:18,209 957 00:48:18,209 --> 00:48:20,700 958 00:48:20,700 --> 00:48:22,339 Dakle, tu imate pokušaj razlikovanja viših od nižih zadovoljstava, 959 00:48:22,339 --> 00:48:23,159 960 00:48:23,159 --> 00:48:24,609 961 00:48:24,609 --> 00:48:27,199 962 00:48:27,199 --> 00:48:28,719 963 00:48:28,719 --> 00:48:33,169 odnosno između posjeta muzeju i gledanja televizije uz bocu piva kod kuće. 964 00:48:33,169 --> 00:48:35,489 965 00:48:35,489 --> 00:48:37,950 Mill dopušta da ponekad možda podliježemo iskušenju 966 00:48:37,950 --> 00:48:40,839 da radimo ovo zadnje, budemo TV ovisnici, 967 00:48:40,839 --> 00:48:41,839 968 00:48:41,839 --> 00:48:46,308 969 00:48:46,309 --> 00:48:47,779 ali čak i kad to radimo iz nemara i lijenosti, i 970 00:48:47,779 --> 00:48:49,609 971 00:48:49,609 --> 00:48:50,680 972 00:48:50,680 --> 00:48:52,200 mi znamo da zadovoljstvo koje osjećamo zureći u Rembrandta u muzeju 973 00:48:52,200 --> 00:48:54,029 ustvari je više 974 00:48:54,029 --> 00:48:55,670 975 00:48:55,670 --> 00:48:56,989 976 00:48:56,989 --> 00:49:00,219 977 00:49:00,219 --> 00:49:03,190 zato jer smo doživjeli oba. 978 00:49:03,190 --> 00:49:05,699 A to i jeste više zadovoljstvo, zurenje u Rembrandte, 979 00:49:05,699 --> 00:49:06,940 980 00:49:06,940 --> 00:49:11,499 zato jer zaokuplja naše više ljudske sposobnosti. 981 00:49:11,499 --> 00:49:13,848 Što je s Millsovim pokušajem da odgovori na prigovor o pravima pojedinca? 982 00:49:13,849 --> 00:49:18,890 983 00:49:18,890 --> 00:49:21,859 Na neki način on koristi istu vrstu argumenta. 984 00:49:21,859 --> 00:49:25,319 A to je predstavljeno u poglavlju 5. 985 00:49:25,319 --> 00:49:27,859 986 00:49:27,859 --> 00:49:33,369 On kaže: 'Iako osporavam pretenzije bilo koje teorije koja postavlja 987 00:49:33,369 --> 00:49:34,889 imaginarni standard pravednosti neutemeljen na korisnosti. 988 00:49:34,889 --> 00:49:39,719 989 00:49:39,719 --> 00:49:41,389 Ali ipak, smatra da je pravednost utemeljena na korisnosti, 990 00:49:41,389 --> 00:49:43,429 glavni dio i neusporedivo najsvetiji i obvezujući dio svake moralnosti ...' 991 00:49:43,429 --> 00:49:44,599 992 00:49:44,599 --> 00:49:48,549 993 00:49:48,549 --> 00:49:52,679 994 00:49:52,679 --> 00:49:54,599 995 00:49:54,599 --> 00:49:57,249 Dakle, pravda jeste viša, individualna prava imaju prednost, 996 00:49:57,249 --> 00:50:00,049 997 00:50:00,049 --> 00:50:01,899 ali ne iz razloga koji se razilaze sa utilitarističkim postavkama. 998 00:50:01,899 --> 00:50:05,310 999 00:50:05,310 --> 00:50:06,769 'Pravednost je ime za određene moralne zahtjeve 1000 00:50:06,769 --> 00:50:09,069 koji su, na kolektivnoj razini, smješteni više na skali društvene korisnosti 1001 00:50:09,069 --> 00:50:11,220 i stoga predstavljaju mjerodavniju obavezu od bilo koje druge.' 1002 00:50:11,220 --> 00:50:14,519 1003 00:50:14,519 --> 00:50:17,109 1004 00:50:17,109 --> 00:50:19,209 1005 00:50:19,209 --> 00:50:20,678 1006 00:50:20,679 --> 00:50:23,200 1007 00:50:23,200 --> 00:50:28,919 1008 00:50:28,920 --> 00:50:30,890 1009 00:50:30,890 --> 00:50:32,239 1010 00:50:32,239 --> 00:50:33,619 1011 00:50:33,619 --> 00:50:35,799 1012 00:50:35,799 --> 00:50:37,929 1013 00:50:37,929 --> 00:50:39,239 1014 00:50:39,239 --> 00:50:41,199 1015 00:50:41,199 --> 00:50:43,539 1016 00:50:43,539 --> 00:50:44,670 1017 00:50:44,670 --> 00:50:46,329 1018 00:50:46,329 --> 00:50:47,699 1019 00:50:47,699 --> 00:50:51,279 1020 00:50:51,279 --> 00:50:52,609 1021 00:50:52,609 --> 00:50:55,949 1022 00:50:55,949 --> 00:50:57,999 1023 00:50:57,999 --> 00:50:59,158 1024 00:50:59,159 --> 00:51:04,549 1025 00:51:04,549 --> 00:51:06,219 1026 00:51:06,219 --> 00:51:07,789 1027 00:51:07,789 --> 00:51:11,129 1028 00:51:11,129 --> 00:51:12,788 1029 00:51:12,789 --> 00:51:14,479 1030 00:51:14,479 --> 00:51:16,948 1031 00:51:16,949 --> 00:51:18,479 1032 00:51:18,479 --> 00:51:21,718 1033 00:51:21,719 --> 00:51:23,809 1034 00:51:23,809 --> 00:51:26,259 1035 00:51:26,259 --> 00:51:28,869 1036 00:51:28,869 --> 00:51:30,419 1037 00:51:30,419 --> 00:51:33,368 1038 00:51:33,369 --> 00:51:35,030 1039 00:51:35,030 --> 00:51:36,479 1040 00:51:36,479 --> 00:51:38,269 1041 00:51:38,269 --> 00:51:40,408 1042 00:51:40,409 --> 00:51:42,949 1043 00:51:42,949 --> 00:51:44,969 1044 00:51:44,969 --> 00:51:46,099 1045 00:51:46,099 --> 00:51:47,419 1046 00:51:47,419 --> 00:51:49,979 1047 00:51:49,979 --> 00:51:53,819 1048 00:51:53,819 --> 00:51:57,509 1049 00:51:57,509 --> 00:51:58,729 1050 00:51:58,729 --> 00:52:01,439 1051 00:52:01,440 --> 00:52:03,390 1052 00:52:03,390 --> 00:52:05,489 1053 00:52:05,489 --> 00:52:07,739 1054 00:52:07,739 --> 00:52:11,069 1055 00:52:11,069 --> 00:52:12,950 1056 00:52:12,950 --> 00:52:14,989 1057 00:52:14,989 --> 00:52:17,049 1058 00:52:17,049 --> 00:52:22,339 1059 00:52:22,339 --> 00:52:23,499 1060 00:52:23,499 --> 00:52:26,839 1061 00:52:26,839 --> 00:52:30,499 1062 00:52:30,499 --> 00:52:33,519 1063 00:52:33,519 --> 00:52:37,129 1064 00:52:37,129 --> 00:52:38,159 1065 00:52:38,159 --> 00:52:44,919 1066 00:52:44,919 --> 00:52:47,618 1067 00:52:47,619 --> 00:52:50,410 1068 00:52:50,410 --> 00:52:53,549 1069 00:52:53,549 --> 00:52:55,459 1070 00:52:55,459 --> 00:52:57,459 1071 00:52:57,459 --> 00:52:58,529 1072 00:52:58,529 --> 00:53:05,529 1073 00:53:06,910 --> 00:53:10,009 1074 00:53:10,009 --> 00:53:13,390 1075 00:53:13,390 --> 00:53:14,979 1076 00:53:16,529 --> 00:53:17,809 1077 00:53:17,809 --> 00:53:22,599 1078 00:53:22,599 --> 00:53:25,709 1079 00:53:25,709 --> 00:53:29,499 1080 00:53:29,499 --> 00:53:33,698 1081 00:53:33,699 --> 00:53:40,659 1082 00:53:40,659 --> 00:53:42,539 1083 00:53:42,539 --> 00:53:45,109 1084 00:53:45,109 --> 00:53:46,769 1085 00:53:46,769 --> 00:53:48,399 1086 00:53:48,400 --> 00:53:55,400 1087 00:53:57,439 --> 00:54:00,808 1088 00:54:00,809 --> 00:54:03,369 1089 00:54:03,369 --> 00:54:07,799 1090 00:54:07,799 --> 00:54:14,799 1091 00:54:49,739 --> 00:54:53,789 1092 00:54:53,789 --> 00:54:55,189