1 00:00:20,040 --> 00:00:23,040 Pravednost Michael Sandel 2 00:00:23,920 --> 00:00:26,580 Ima li život cijenu? 3 00:00:29,390 --> 00:00:37,510 Prošli puta raspravljali smo o slučaju Kraljica protiv Dudleya i Stephensa, 4 00:00:39,400 --> 00:00:43,790 slučaj u čamcu za spasavanje, slučaj kanibalizma na moru, 5 00:00:45,970 --> 00:00:49,620 i imajući na umu argumente slučaja čamca za spasavanje, 6 00:00:49,839 --> 00:00:53,220 argumente za i protiv onoga što su učinili Dudley i Stephens, 7 00:00:54,150 --> 00:01:00,200 vratimo se na utilitarističku filozofiju Jeremya Benthama. 8 00:01:02,060 --> 00:01:04,570 Bentham je rođen u Engleskoj 1748., 9 00:01:04,620 --> 00:01:08,978 sa 12 godina pohađao je Oxford, sa 15 se upisao na pravni fakultet. 10 00:01:09,740 --> 00:01:14,100 Sa 19 primljen je u Odvjetničku komoru, ali nikada se nije bavio pravom, 11 00:01:14,740 --> 00:01:20,256 umjesto toga posvetio je život filozofiji prava i filozofiji morala. 12 00:01:22,170 --> 00:01:26,715 Prošli puta počeli smo razmatrati Benthamovu verziju utilitarizma. 13 00:01:27,690 --> 00:01:30,990 Glavna ideja, sažeto sročena, je ova: 14 00:01:32,780 --> 00:01:37,700 najviši princip morala, bilo osobnog ili političkog morala, 15 00:01:40,529 --> 00:01:43,780 je maksimiziranje općeg dobra 16 00:01:44,000 --> 00:01:46,170 ili kolektivne sreće, 17 00:01:46,560 --> 00:01:49,244 ili ukupne ravnoteže zadovoljstva nad boli 18 00:01:50,070 --> 00:01:53,338 u izrazu maksimizirane korisnosti. 19 00:01:56,150 --> 00:01:59,747 Bentham dolazi do tog principa rasuđujući na sljedeći način: 20 00:02:00,570 --> 00:02:02,650 svima nama upravljaju bol i zadovoljstvo, 21 00:02:03,150 --> 00:02:07,889 oni su naši suvereni gospodari, pa ih svaki moralni sistem mora uzeti u obzir. 22 00:02:08,828 --> 00:02:10,819 Kako ih najbolje uzeti u obzir? 23 00:02:10,999 --> 00:02:12,392 Maksimiziranjem 24 00:02:13,739 --> 00:02:17,999 i to vodi principu 'najvećeg dobra za najveći broj'. 25 00:02:19,400 --> 00:02:21,394 Što bismo točno trebali maksimizirati? 26 00:02:22,749 --> 00:02:24,978 Bentham nam kaže - sreću 27 00:02:25,510 --> 00:02:28,256 ili, preciznije, korisnost. 28 00:02:28,679 --> 00:02:33,439 Maksimiziranje korisnosti nije najvažnije samo za pojedince, već i za zajednice 29 00:02:33,929 --> 00:02:35,460 i zakonodavce. 30 00:02:36,569 --> 00:02:39,239 Na koncu, što je zajednica? - pita Bentham. 31 00:02:41,359 --> 00:02:44,377 To je suma pojedinaca koji je sačinjavaju. 32 00:02:44,779 --> 00:02:47,520 I zbog toga, u odlučivanju o najboljim političkim mjerama, 33 00:02:47,650 --> 00:02:51,360 u odlučivanju što bi trebalo biti zakon, u odlučivanju što je pravedno, 34 00:02:52,380 --> 00:02:56,609 građani i zakonodavci bi se trebali zapitati: 35 00:02:56,609 --> 00:03:00,760 Ako zbrojimo sve prednosti ove politike 36 00:03:03,870 --> 00:03:06,447 i oduzmemo sve troškove, 37 00:03:08,829 --> 00:03:11,429 ispravna stvar koju treba učiniti je ona 38 00:03:11,779 --> 00:03:16,665 koja maksimizira saldo sreće nad patnjom. 39 00:03:20,869 --> 00:03:22,629 To znači maksimizirati korisnost. 40 00:03:23,769 --> 00:03:29,498 Danas želim ustanoviti da li se vi slažete s tim ili ne. 41 00:03:30,700 --> 00:03:36,200 A ta utilitarna logika često dolazi pod nazivom analiza troškova i koristi 42 00:03:36,650 --> 00:03:42,429 koju koriste kompanije i vlade cijelo vrijeme. 43 00:03:43,369 --> 00:03:49,578 A ono što ona uključuje je vrednovanje, obično u dolarima, korisnosti, 44 00:03:50,899 --> 00:03:54,797 kao i troškova i prednosti raznih prijedloga. 45 00:03:56,309 --> 00:03:58,529 Nedavno je u Republici Češkoj 46 00:03:58,879 --> 00:04:02,700 predstavljen prijedlog za povećanje trošarine na pušenje. 47 00:04:03,120 --> 00:04:05,980 Philip Morris, duhanska kompanija, 48 00:04:07,679 --> 00:04:10,439 ostvaruje veliku dobit u Republici Češkoj. 49 00:04:10,669 --> 00:04:14,579 Oni su naručili studiju analize troškova i koristi 50 00:04:15,148 --> 00:04:18,068 za pušenje u Republici Češkoj. 51 00:04:18,678 --> 00:04:21,787 I ono što je ustanovila ta studija analize troškova i koristi, 52 00:04:23,550 --> 00:04:29,396 je da vlada ostvaruje dobit zahvaljujući pušenju čeških građana. 53 00:04:30,779 --> 00:04:32,360 Pa, kako ostvaruju dobit? 54 00:04:32,660 --> 00:04:38,519 Istina je da postoje negativni učinci na javne financije češke vlade, 55 00:04:40,000 --> 00:04:45,694 zbog povećanih troškova zdravstva za ljude koji pate od bolesti povezanih s pušenjem, 56 00:04:47,239 --> 00:04:49,799 s druge strane, postoje pozitivni učinci, 57 00:04:50,730 --> 00:04:54,600 a to su, pribrojeni na drugoj strani bilance, 58 00:04:55,379 --> 00:04:59,180 pozitivni učinci su uključivali, najvećim dijelom, razne porezne prihode 59 00:04:59,260 --> 00:05:03,539 koje vlada ostvaruje prodajom duhanskih proizvoda, 60 00:05:03,800 --> 00:05:08,305 no također su uključivali uštede u zdravstvu kad ljudi umiru ranije, 61 00:05:08,910 --> 00:05:12,466 uštede na penzijama - ne morate plaćati penzije tako dugo - 62 00:05:13,339 --> 00:05:17,149 i također uštede na troškovima domova za starije. 63 00:05:19,679 --> 00:05:22,679 I kad su bili sumirani svi troškovi i koristi, 64 00:05:24,640 --> 00:05:27,340 studija Philip Morrisa je ustanovila 65 00:05:27,870 --> 00:05:32,010 da neto dobit javnih financija Republike Češke iznosi 66 00:05:32,610 --> 00:05:35,479 147 milijuna dolara, 67 00:05:36,449 --> 00:05:40,670 a u odnosu na uštede na smještaju i zdravstvenoj skrbi i mirovinama, 68 00:05:41,407 --> 00:05:50,839 vlada uživa uštedu od preko 1200 dolara za svaku osobu koja prerano umre zbog pušenja. 69 00:05:51,919 --> 00:05:53,870 Analiza troškova i koristi. 70 00:05:56,740 --> 00:06:02,289 Oni od vas koji brane utilitarizam mogli bi pomisliti da ovaj test nije fer. 71 00:06:03,389 --> 00:06:09,130 Philip Morris je bio razapet u štampi i objavio je ispriku za ovu bezdušnu kalkulaciju. 72 00:06:10,680 --> 00:06:13,089 Mogli biste reći da je ono što ovdje nedostaje 73 00:06:13,139 --> 00:06:17,252 nešto što utilitaristi mogu lako ugraditi, napose, 74 00:06:19,339 --> 00:06:24,160 vrijednost za osobu i obitelji onih koji umiru od raka pluća. 75 00:06:25,599 --> 00:06:27,642 A što je sa vrijednošću života? 76 00:06:29,190 --> 00:06:35,554 Neke analize troškova i koristi sadržavaju mjeru za vrijednost života. 77 00:06:36,809 --> 00:06:40,933 Jedan od najpoznatijih je slučaj Ford Pinto automobila. 78 00:06:41,330 --> 00:06:44,138 Je li itko čitao o tome? To je bilo 1970.-tih. 79 00:06:44,298 --> 00:06:47,499 Sjećate se da je Ford Pinto bio marka automobila? 80 00:06:47,750 --> 00:06:48,639 Itko? 81 00:06:51,029 --> 00:06:54,899 To je bio mali auto, kompakt klase, vrlo popularan, 82 00:06:55,949 --> 00:07:00,849 ali imao je jedan problem, a to je da je rezervoar za gorivo bio straga 83 00:07:01,599 --> 00:07:04,718 i kod udarca u stražnji dio rezervoar bi eksplodirao 84 00:07:07,660 --> 00:07:11,570 i neki ljudi su poginuli, a neki su bili ozbiljno povrijeđeni. 85 00:07:13,749 --> 00:07:18,348 Žrtve tih nesreća tužile su Ford, 86 00:07:18,768 --> 00:07:21,438 a na suđenju se ispostavilo 87 00:07:21,669 --> 00:07:26,710 da je Ford odavno znao za riskantnost rezervoara za gorivo 88 00:07:27,499 --> 00:07:32,169 i da je napravio analizu troškova i koristi kako bi ustanovio da li bi se isplatilo 89 00:07:33,599 --> 00:07:35,833 ugraditi posebni štit 90 00:07:36,090 --> 00:07:39,574 koji bi zaštitio rezervoar i spriječio da eksplodira. 91 00:07:40,490 --> 00:07:42,519 Napravili su analizu troškova i koristi; 92 00:07:42,979 --> 00:07:48,766 cijena dijela koji bi povećao sigurnost Pinta, 93 00:07:50,299 --> 00:07:53,568 izračunali su da iznosi 11 dolara po komadu. 94 00:07:55,939 --> 00:08:01,347 A ovo je analiza troškova i koristi koja se pojavila na suđenju, 95 00:08:02,879 --> 00:08:08,812 11 dolara po komadu za 12,5 milijuna automobila i kamiona 96 00:08:09,670 --> 00:08:15,938 iznosila je ukupno 137 milijuna dolara za povećanje sigurnosti. 97 00:08:17,370 --> 00:08:22,178 A onda su izračunali prednosti ulaganja tog novca u sigurniji auto. 98 00:08:23,300 --> 00:08:28,197 Prebrojali su 180 smrti i pridijelili dolarsku vrijednost: 99 00:08:29,130 --> 00:08:31,079 200 tisuća dolara po jednoj smrti. 100 00:08:32,170 --> 00:08:36,820 180 povreda - 67 tisuća dolara; 101 00:08:37,490 --> 00:08:40,999 i onda troškovi popravka i zamjene za 2000 vozila, 102 00:08:40,999 --> 00:08:44,174 koji bi bili uništeni bez tog zaštitnog dijela, 103 00:08:44,719 --> 00:08:46,875 700 dolara po vozilu. 104 00:08:48,060 --> 00:08:53,690 Tako se pokazalo da bi prednosti iznosile samo 49,5 milijuna 105 00:08:53,930 --> 00:08:56,920 i stoga nisu ugradili tu zaštitu. 106 00:08:57,570 --> 00:09:00,519 Nepotrebno je napominjati, da kad se taj memo 107 00:09:01,700 --> 00:09:06,420 o analizi troškova i koristi kompanije Ford Motor Company pojavio na suđenju, 108 00:09:09,160 --> 00:09:13,220 prenerazio je porotnike, koji su dosudili goleme odštete. 109 00:09:15,950 --> 00:09:20,020 Je li to protuprimjer za utilitarističku ideju izračuna? 110 00:09:20,360 --> 00:09:24,644 Jer Ford je uključio mjeru za vrijednost života. 111 00:09:27,320 --> 00:09:31,940 Tko bi od vas želio braniti analizu troškova i koristi 112 00:09:33,190 --> 00:09:35,120 u ovom očitom protuprimjeru? 113 00:09:35,320 --> 00:09:36,740 Tko ima obranu? 114 00:09:38,520 --> 00:09:43,350 Ili mislite da to u potpunosti ruši cijeli utiilitaristički izračun? 115 00:09:47,410 --> 00:09:50,970 Ja mislim da su opet napravili istu grešku kao u prethodnom slučaju 116 00:09:51,220 --> 00:09:56,116 pridijelivši dolarsku vrijednost ljudskom životu ne uzimajući u obzir stvari poput 117 00:09:56,270 --> 00:10:02,990 patnje i emocionalni gubitak obitelji, koje su izgubile prihode, ali i svoje voljene. 118 00:10:03,860 --> 00:10:06,700 a to vrijedi više od 200 tisuća dolara. 119 00:10:06,820 --> 00:10:08,540 Čekajte, kako se vi zovete? 120 00:10:09,171 --> 00:10:10,177 Julie Roto. 121 00:10:10,480 --> 00:10:15,060 Pa, Julie, 200 tisuća je preniska cifra 122 00:10:15,230 --> 00:10:20,100 jer ne uključuje gubitak voljenih i gubitak svih tih godina života. 123 00:10:21,660 --> 00:10:25,650 Što vi mislite, koji bi broj bio točniji? 124 00:10:26,970 --> 00:10:28,660 Ne vjerujem da mogu dati broj, 125 00:10:28,660 --> 00:10:32,669 mislim da se takva vrsta analize ne bi smjela koristiti u pitanjima ljudskog života. 126 00:10:32,764 --> 00:10:34,943 Mislim da se to ne može izraziti novčano. 127 00:10:35,100 --> 00:10:38,170 Dakle, oni ne samo da su stavili premalu brojku, 128 00:10:39,270 --> 00:10:42,672 kaže Julie, nego su pogriješili stavljajući bilo koji broj. 129 00:10:44,510 --> 00:10:46,230 U redu, da čujemo nekoga tko ... 130 00:10:49,540 --> 00:10:51,860 Morate uzeti u obzir inflaciju? 131 00:10:58,260 --> 00:10:59,690 U redu, pošteno. 132 00:11:00,050 --> 00:11:02,250 Pa koji bi to onda broj sada bio? 133 00:11:02,660 --> 00:11:04,875 To je bilo prije 35 godina. 134 00:11:07,370 --> 00:11:08,970 Dva milijuna dolara? 135 00:11:10,090 --> 00:11:11,540 Vi bi stavili dva milijuna? 136 00:11:12,030 --> 00:11:13,269 A kako se vi zovete? 137 00:11:13,269 --> 00:11:14,099 Voicheck. 138 00:11:14,309 --> 00:11:16,758 Voicheck kaže, moramo uzeti u obzir inflaciju 139 00:11:17,330 --> 00:11:19,049 Trebali bi biti velikodušniji. 140 00:11:19,360 --> 00:11:23,370 Bi li tada smatrali da je ovo ispravan način razmišljanja o tom pitanju? 141 00:11:25,170 --> 00:11:31,350 Pretpostavljam, nažalost tu negdje treba staviti broj, 142 00:11:32,161 --> 00:11:34,440 nisam siguran koji bi to broj bio, 143 00:11:34,480 --> 00:11:40,430 ali se slažem da bi se mogao staviti broj na ljudski život. 144 00:11:41,060 --> 00:11:43,109 U redu. Dakle Voicheck kaže, 145 00:11:44,260 --> 00:11:46,470 i tu se ne slaže s Julie, ... 146 00:11:46,649 --> 00:11:51,480 Julie kaže, ne možemo staviti broj na ljudski život u svrhu analize troškova i koristi. 147 00:11:51,690 --> 00:11:56,030 Voicheck kaže - moramo jer moramo donositi odluke, nekako. 148 00:11:59,520 --> 00:12:01,902 Što drugi misle o tome? 149 00:12:01,980 --> 00:12:05,340 Je li itko ovdje spreman braniti analizu troškova i koristi? 150 00:12:06,200 --> 00:12:08,060 Kao točnu i poželjnu? 151 00:12:09,810 --> 00:12:14,460 Ja mislim kad Ford i druge auto kompanije ne bi koristile analizu troškova i koristi 152 00:12:15,260 --> 00:12:18,209 na koncu bi propale jer ne bi mogle biti profitabilne 153 00:12:18,489 --> 00:12:21,749 i milijuni ljudi ne bi mogli koristiti njihove aute za odlazak na posao 154 00:12:21,749 --> 00:12:24,195 kako bi prehranili svoju djecu. 155 00:12:24,385 --> 00:12:27,725 Zato mislim da ako se ne koristi analiza troškova i koristi 156 00:12:28,340 --> 00:12:32,478 žrtvuje se opće dobro u tom slučaju. 157 00:12:32,810 --> 00:12:34,500 Dobro, da vas pitam kako se zovete? 158 00:12:34,530 --> 00:12:35,279 Raul. 159 00:12:37,589 --> 00:12:42,399 Raul, nedavno je provedena studija o upotrebi mobitela u autu za vrijeme vožnje 160 00:12:42,760 --> 00:12:45,340 i vodila se diskusija o tome treba li to zabraniti 161 00:12:48,660 --> 00:12:53,611 Procjena je da oko 2000 ljudi umire 162 00:12:54,810 --> 00:13:00,240 u nesrećama svake godine zbog korištenja mobitela. 163 00:13:00,900 --> 00:13:06,640 a ipak analiza troškova i koristi koju je napravio Centar za analizu rizika na Harvardu 164 00:13:07,860 --> 00:13:11,980 ustanovila je da ako pogledate prednosti korištenja mobitela 165 00:13:13,560 --> 00:13:18,439 i procijenite vrijednost života, dođe skoro na isto 166 00:13:19,050 --> 00:13:23,960 zbog goleme ekonomske koristi omogućavanja ljudima da iskoriste vrijeme, 167 00:13:24,040 --> 00:13:27,330 da ne gube vrijeme, da mogu ugovarati poslove i razgovarati s prijateljima i tako dalje 168 00:13:27,370 --> 00:13:28,720 za vrijeme dok voze. 169 00:13:29,900 --> 00:13:36,140 Ne sugerira li to da je pogrešno ljudski život vrednovati novčanim iznosima? 170 00:13:37,590 --> 00:13:40,564 Pa, ja mislim da ako velika većina ljudi 171 00:13:41,320 --> 00:13:45,369 pokušava izvući maksimalnu korist iz usluge kao što je upotreba mobitela 172 00:13:45,880 --> 00:13:47,739 i pogodnosti koju pružaju mobiteli, 173 00:13:47,989 --> 00:13:52,710 tada je žrtva nužna da bi ljudi bili zadovoljni. 174 00:13:53,230 --> 00:13:55,649 Vi ste otvoreno utilitarista?! 175 00:13:56,530 --> 00:13:57,270 Da. 176 00:14:00,020 --> 00:14:01,318 Zadnje pitanje Raul, 177 00:14:03,600 --> 00:14:05,619 a postavio sam ga i Voichecku. 178 00:14:05,679 --> 00:14:11,670 Koja bi morala biti cijena ljudskog života u dolarima da bi se zabranilo korištenje mobitela? 179 00:14:12,870 --> 00:14:17,709 Ne želim proizvoljno računati brojke ovoga časa... 180 00:14:21,350 --> 00:14:23,359 Želite li to uzeti u razmatranje? 181 00:14:23,610 --> 00:14:24,790 Da, uzet ću to ... 182 00:14:25,090 --> 00:14:28,069 Ali ugrubo, koliko bi to bilo? Imate 2300 smrti, 183 00:14:28,690 --> 00:14:31,970 morate odrediti dolarsku vrijednost da biste znali želite li spriječiti te smrti 184 00:14:32,010 --> 00:14:34,539 zabranom upotrebe mobitela u autima. 185 00:14:36,660 --> 00:14:39,940 Pa, imate li neki osjećaj koliko? 186 00:14:40,350 --> 00:14:41,859 Milijun, dva milijuna? 187 00:14:42,280 --> 00:14:44,170 Dva milijuna je bila Voitechova cifra. 188 00:14:44,410 --> 00:14:46,410 Je li to otprilike točno? - Možda milijun. 189 00:14:46,490 --> 00:14:47,770 Milijun?! - Da. 190 00:14:51,140 --> 00:14:52,090 Dobro je, hvala. 191 00:14:54,650 --> 00:14:59,359 To su neke kontraverze koje danas proizlaze iz analize troškova i koristi, 192 00:14:59,549 --> 00:15:05,130 posebno one koje uključuju pridjeljivanje dolarske vrijednosti svemu što ulazi u zbroj. 193 00:15:06,770 --> 00:15:09,840 Sada bih se želio okrenuti vašim prigovorima, 194 00:15:09,960 --> 00:15:14,560 vašim prigovorima, ne nužno na analizu troškova i koristi izričito, 195 00:15:14,740 --> 00:15:20,249 jer to je samo jedna verzija utilitarističke logike u današnjoj praksi, 196 00:15:21,720 --> 00:15:24,010 nego na teoriju u cjelini, 197 00:15:24,200 --> 00:15:28,220 na ideju da je ispravni postupak, 198 00:15:30,000 --> 00:15:32,630 pravedna osnova za političke mjere i zakon, 199 00:15:33,710 --> 00:15:36,190 maksimiziranje korisnosti. 200 00:15:39,750 --> 00:15:43,440 Koliko vas se ne slaže s utilitarističkim pristupom 201 00:15:44,330 --> 00:15:47,510 zakonu i općem dobru? 202 00:15:48,330 --> 00:15:49,890 Koliko vas se slaže s njim? 203 00:15:52,070 --> 00:15:54,970 Dakle više vas je koji se slažu nego onih koji se ne slažu. 204 00:15:55,200 --> 00:15:56,780 Pa da čujemo kritičare. 205 00:15:59,560 --> 00:16:03,059 Moj glavni problem s tim je da mi se čini da ne možete reći ... 206 00:16:03,549 --> 00:16:05,230 samo zato što je netko u manjini, 207 00:16:06,280 --> 00:16:11,063 da su njegove želje i potrebe manje vrijedne nego onih koji su u većini. 208 00:16:11,650 --> 00:16:13,939 Pretpostavljam da imam problem s idejom da je 209 00:16:14,102 --> 00:16:16,607 'najveće dobro za najveći broj' u redu, 210 00:16:16,697 --> 00:16:21,401 jer što je onda s ljudima kojih je manji broj, 211 00:16:21,500 --> 00:16:25,634 to onda nije fer prema njima jer nemaju pravo glasa o tome što oni žele. 212 00:16:25,840 --> 00:16:30,030 To je zanimljiv prigovor, vi brinete o učinku na manjinu? 213 00:16:30,940 --> 00:16:31,850 Da. 214 00:16:32,270 --> 00:16:33,380 Usput, kako se zovete? 215 00:16:33,500 --> 00:16:34,300 Anna. 216 00:16:35,299 --> 00:16:39,639 Tko ima odgovor na Anninu brigu za učinak na manjinu? 217 00:16:39,960 --> 00:16:41,360 Što kažete Anni? 218 00:16:41,450 --> 00:16:45,170 Ona je rekla da manjine vrijede manje. Ja mislim da to nije slučaj 219 00:16:45,260 --> 00:16:50,443 jer pojedinci u manjini vrijede sasvim jednako kao pojedinci u većini, 220 00:16:50,599 --> 00:16:54,580 samo je stvar u tome da brojevi nadilaze manjinu. 221 00:16:56,210 --> 00:16:58,269 U određenom trenutku morate donijeti odluku 222 00:16:58,969 --> 00:17:04,260 i žao mi je manjine, ali ponekad je to za opće, veće dobro. 223 00:17:04,450 --> 00:17:07,130 Za veće dobro. Anna, što vi kažete? Vaše ime? 224 00:17:07,650 --> 00:17:08,510 Youngda. 225 00:17:08,664 --> 00:17:10,174 Što kažete Youngdai? 226 00:17:10,429 --> 00:17:13,339 Youngda kaže, morate samo zbrojiti preferencije ljudi, 227 00:17:13,439 --> 00:17:16,738 a preferencije onih u manjini zaista se mjere. 228 00:17:17,309 --> 00:17:20,070 Možete li dati neki primjer za ono što vas brine 229 00:17:20,260 --> 00:17:26,820 kad kažete da ste zabrinuti da utilitarizam krši interes i uvažavanje manjine? 230 00:17:27,970 --> 00:17:29,730 Možete li dati neki primjer? 231 00:17:30,050 --> 00:17:33,593 Pa, u odnosu na svaki od slučajeva o kojima smo govorili, poput brodoloma, 232 00:17:35,179 --> 00:17:41,662 mislim da je dječak koji je pojeden ipak imao jednako pravo na život kao i drugi ljudi, 233 00:17:43,560 --> 00:17:48,966 a samo zato što je bio 'manjina' u tom slučaju, 234 00:17:49,100 --> 00:17:52,940 onaj koji je možda imao manje šanse da nastavi živjeti, 235 00:17:53,460 --> 00:17:57,662 to ne znači da drugi automatski imaju pravo da ga pojedu 236 00:17:58,450 --> 00:18:02,500 samo zato jer bi to većem broju ljudi pružilo šansu da preživi. 237 00:18:03,290 --> 00:18:09,570 Dakle, možda postoje određena prava koja imaju manjine, odnosno pojedinac, 238 00:18:09,980 --> 00:18:15,290 koja ne bi smjela biti razmjenjivana u ime korisnosti? 239 00:18:16,520 --> 00:18:17,640 Da, Anna? 240 00:18:18,210 --> 00:18:20,414 Ovo bi bio test za vas. 241 00:18:21,990 --> 00:18:27,843 U drevnom Rimu bacali su kršćane lavovima u koloseumu iz sporta. 242 00:18:29,510 --> 00:18:32,713 Ako razmislite o načinu utilitarističkog računanja - 243 00:18:33,890 --> 00:18:38,154 da, krščanin bačen lavu proživljava ogromni nepodnošljivi bol, 244 00:18:38,770 --> 00:18:41,720 ali pogledajte kolektivnu ekstazu Rimljana! 245 00:18:45,150 --> 00:18:46,427 Youngda. 246 00:18:50,580 --> 00:18:51,889 Pa, u to vrijeme ... 247 00:18:54,920 --> 00:19:00,820 U moderno vrijeme, uzimajući u obzir radost pruženu ljudima koji gledaju, 248 00:19:01,680 --> 00:19:10,890 mislim da niti jedan zakonodavac ne bi rekao da je patnja jednog čovjeka puno ... 249 00:19:12,090 --> 00:19:14,410 u usporedbi sa radošću koju donosi ... 250 00:19:14,680 --> 00:19:19,992 Ne, ali morate priznati da u slučaju da je dovoljan broj Rimljana bio izbezumljen od sreće 251 00:19:20,460 --> 00:19:26,211 to bi prevagnulo čak i najužasniju bol nekolicine kršćana bačenih lavovima. 252 00:19:28,600 --> 00:19:32,651 Dakle, zaista ovdje imamo dva različita prigovora utilitarizmu. 253 00:19:33,570 --> 00:19:41,830 Jedan se odnosi na primjereno poštovanje ljudskih prava odnosno prava manjina. 254 00:19:42,500 --> 00:19:52,350 A drugi se odnosi na cijelu ideju objedinjavanja korisnosti ili preferencija ili vrijednosti. 255 00:19:53,070 --> 00:19:59,120 Da li je moguće objediniti sve vrijednosti i prevesti ih u dolarsku vrijednost? 256 00:20:02,460 --> 00:20:13,079 1930.-ih bio je jedan psiholog koji je pokušao govoriti o drugom pitanju. 257 00:20:13,300 --> 00:20:17,730 Pokušao je dokazati ono što utilitarizam smatra istinom, 258 00:20:18,530 --> 00:20:24,700 da je zaista moguće prevesti sve robe, sve vrijednosti, 259 00:20:24,840 --> 00:20:26,300 sve do čega je ljudima stalo, 260 00:20:26,419 --> 00:20:28,692 u jedinstvenu uniformnu mjeru, 261 00:20:28,909 --> 00:20:34,290 a to je učinio tako da je proveo anketu među mladim primateljima socijalne pomoći. 262 00:20:34,390 --> 00:20:36,190 To je bilo 1930. -tih. 263 00:20:37,610 --> 00:20:41,449 Dao im je listu neugodnih doživljaja 264 00:20:42,000 --> 00:20:46,550 i pitao ih, 'Koliko bi trebali biti plaćeni da pristanete proživjeti ove stvari?' 265 00:20:47,021 --> 00:20:48,448 I vodio je bilješke. 266 00:20:49,530 --> 00:20:54,606 Na primjer, 'Koliko biste morali biti plaćeni da pristanete na vađenje prednjeg gornjeg zuba?' 267 00:20:56,840 --> 00:21:02,676 ili 'Koliko bi trebali biti plaćeni da pristanete da vam se odsiječe jedan mali nožni prst?' 268 00:21:05,030 --> 00:21:08,781 ili ' da jedete žive gliste od 20 cm' 269 00:21:10,510 --> 00:21:15,050 ili 'da ostatak života proživite na farmi u Kansasu' 270 00:21:19,430 --> 00:21:22,790 ili 'da golim rukama zadavite mačku lutalicu'? 271 00:21:24,400 --> 00:21:29,565 Što mislite, koja je bila najskuplja stavka na toj listi? 272 00:21:32,410 --> 00:21:33,520 Kansas? 273 00:21:39,750 --> 00:21:41,825 U pravu ste, bio je to Kansas. 274 00:21:44,840 --> 00:21:50,578 Za Kansas ljudi su rekli da bi morali biti plaćeni 300.000 dolara. 275 00:21:57,340 --> 00:22:02,127 Što mislite koja je bila sljedeća najskuplja stavka? 276 00:22:02,900 --> 00:22:03,970 Nije mačka, 277 00:22:05,710 --> 00:22:06,610 nije zub, 278 00:22:07,670 --> 00:22:09,480 nije nožni prst, 279 00:22:10,900 --> 00:22:12,061 glista! 280 00:22:16,290 --> 00:22:21,485 Ljudi su rekli da bi im trebali platiti sto tisuća dolara da pojedu glistu! 281 00:22:23,000 --> 00:22:25,990 Što mislite da je bila najmanje skupa stavka? 282 00:22:27,730 --> 00:22:28,770 Nije mačka, 283 00:22:30,010 --> 00:22:30,910 zub! 284 00:22:31,300 --> 00:22:37,100 U vrijeme depresije ljudi su bili voljni da im se izvadi zub za samo 4.500 dolara. 285 00:22:40,150 --> 00:22:46,200 Evo što je Thorndike zaključio iz svog istraživanja: 286 00:22:47,750 --> 00:22:53,630 svaka želja ili užitak koji postoje, postoje u nekoj količini i stoga su mjerljivi. 287 00:22:54,600 --> 00:22:57,939 Život psa ili mačke ili kokoši 288 00:22:58,109 --> 00:23:03,369 sastoji se od apetita, žudnji, želja i zadovoljenja. 289 00:23:04,290 --> 00:23:10,331 Isto vrijedi za život ljudskih bića, iako su apetiti i želje kompliciraniji. 290 00:23:12,450 --> 00:23:15,022 Ali što je s Thorndikeovom studijom? 291 00:23:15,570 --> 00:23:18,970 Podržava li ona Benthamovu ideju 292 00:23:20,210 --> 00:23:23,170 da sva dobra, sve vrijednosti 293 00:23:23,360 --> 00:23:27,809 mogu biti obuhvaćeni jednom uniformnom mjerom vrijednosti 294 00:23:28,190 --> 00:23:32,139 ili besmislenost ovih stavki na listi 295 00:23:33,459 --> 00:23:36,390 sugerira suprotni zaključak 296 00:23:37,220 --> 00:23:42,736 da možda - bez obzira govorimo li o životu ili Kanzasu ili glisti - 297 00:23:44,180 --> 00:23:48,485 možda stvari koje su nam vrijedne i važne 298 00:23:49,180 --> 00:23:53,670 ne mogu biti obuhvaćene jednom uniformnom mjerom vrijednosti. 299 00:23:54,280 --> 00:24:00,929 A ako ne mogu, koje su posljedice za utilitarističku teoriju morala? 300 00:24:01,750 --> 00:24:04,797 To je pitanje kojim ćemo nastaviti sljedeći puta. 301 00:24:13,179 --> 00:24:16,370 Uzmimo sada drugi dio glasova. 302 00:24:17,370 --> 00:24:22,159 Koji je doživljaj najvećeg užitka? 303 00:24:23,040 --> 00:24:25,927 Koliko vas kaže Shakespeare? 304 00:24:26,137 --> 00:24:28,467 KAKO MJERITI UGODU 305 00:24:31,720 --> 00:24:35,457 Koliko vas kaže Fear Factor (Faktor straha, serija)? 306 00:24:38,120 --> 00:24:40,546 Ne, nemoguće da ste ozbiljni, zaista? 307 00:24:47,820 --> 00:24:51,890 Prošli puta počeli smo razmatrati neke prigovore 308 00:24:53,510 --> 00:24:57,720 na verziju utilitarizma Jeremy Benthama. 309 00:25:01,790 --> 00:25:05,890 U raspravi koju smo vodili ljudi su iznijeli dva prigovora. 310 00:25:08,380 --> 00:25:12,520 Prvi prigovor odnosno tvrdnja bila je 311 00:25:12,710 --> 00:25:18,890 da utilitarizam baveći se 'najvećim dobrom za najveći broj' 312 00:25:19,450 --> 00:25:23,733 propušta primjereno poštovati prava pojedinca. 313 00:25:24,970 --> 00:25:30,780 Danas imamo debate o mučenju i terorizmu. 314 00:25:33,210 --> 00:25:38,739 Pretpostavimo da je osumnjičeni terorist uhićen 10. rujna 315 00:25:40,980 --> 00:25:45,969 i imate razloga vjerovati da je osumnjičeni 316 00:25:46,320 --> 00:25:49,640 imao ključne informacije o predstojećem terorističkom napadu 317 00:25:49,750 --> 00:25:51,580 u kojem će poginuti preko 3000 ljudi. 318 00:25:52,200 --> 00:25:54,799 I ne možete izvući informacije iz njega? 319 00:25:55,280 --> 00:26:00,118 Da li bi bilo pravedno mučiti osumnjičenika 320 00:26:01,070 --> 00:26:02,717 kako bi se dobile informacije? 321 00:26:03,060 --> 00:26:03,930 Ili 322 00:26:05,550 --> 00:26:11,880 kažete - Ne, postoji kategorična moralna obaveza poštovanja prava pojedinca 323 00:26:14,290 --> 00:26:17,439 Na neki način vratili smo se na pitanje s kojim smo počeli, 324 00:26:17,640 --> 00:26:21,176 o tramvaju i transplantaciji organa. To je prvo sporno pitanje. 325 00:26:23,910 --> 00:26:28,766 I sjećate se da smo razmatrali neke primjere analize troškova i koristi. 326 00:26:29,250 --> 00:26:33,116 Ali mnogo ljudi nije bilo zadovoljno s analizom troškova i koristi 327 00:26:33,870 --> 00:26:37,625 kad se radilo o pridjeljivanju dolarske vrijednosti ljudskom životu. 328 00:26:39,970 --> 00:26:43,013 I to nas je dovelo do drugog prigovora 329 00:26:44,500 --> 00:26:47,961 koji je doveo u pitanje mogućnost prevođenja svih vrijednosti 330 00:26:48,510 --> 00:26:51,549 na jednu uniformnu mjeru vrijednosti. 331 00:26:52,610 --> 00:26:56,386 Drugim riječima, pitanje je jesu li sve vrijednosti sumjerljive. 332 00:26:57,580 --> 00:27:05,344 Da vam dam još jedan primjer, ustvari, istinitu priču iz osobnog iskustva, 333 00:27:07,240 --> 00:27:13,380 koja barem postavlja pitanje mogu li se sve vrijednosti prevesti bez gubitka 334 00:27:13,610 --> 00:27:15,911 u utilitaritarističke termine. 335 00:27:19,759 --> 00:27:21,609 Prije puno godina 336 00:27:22,110 --> 00:27:25,170 kad sam bio na diplomskom studiju na Oxfordu u Engleskoj, 337 00:27:25,270 --> 00:27:29,400 i postojali su muški i ženski fakulteti, još nisu bili miješani. 338 00:27:29,800 --> 00:27:34,658 I ženski fakulteti imali su pravila zabrane noćnih posjeta za muške goste. 339 00:27:37,470 --> 00:27:42,843 U 1970.-ima ta su se pravila rijetko provodila i lako kršila 340 00:27:44,030 --> 00:27:45,870 ili su mi tako rekli. 341 00:27:51,600 --> 00:27:55,939 Kasnih sedamdesetih, kad sam ja bio tamo, porastao je pritisak za ublažavanje tih pravila 342 00:27:55,969 --> 00:28:01,060 i to je postalo predmet diskusije na St. Anne College, 343 00:28:01,100 --> 00:28:03,411 koji je bio jedan od tih fakulteta samo za žene. 344 00:28:03,840 --> 00:28:07,480 Starije žene na fakultetu bile su tradicionalisti, 345 00:28:07,550 --> 00:28:11,640 protivile su se promjeni na konvencionalnim moralnim osnovama. 346 00:28:12,820 --> 00:28:15,543 No, vremena su se promijenila i bilo im je neugodno 347 00:28:16,980 --> 00:28:19,870 iznijeti pravu osnovu svojih prigovora. 348 00:28:20,000 --> 00:28:24,069 I zato su svoje argumente prevele u utilitarističke termine. 349 00:28:25,640 --> 00:28:30,326 Ako muškarci ostaju preko noći, tvrdile su, povećat će se troškovi fakulteta. 350 00:28:31,460 --> 00:28:33,270 Kako, možda se pitate? 351 00:28:33,490 --> 00:28:37,119 Pa, poželjet će se okupati i potrošit će našu toplu vodu, rekle su. 352 00:28:38,879 --> 00:28:43,198 Nadalje, tvrdile su, morat ćemo češće mijenjati madrace. 353 00:28:46,780 --> 00:28:51,325 Reformatori su udovoljili tim zahtjevima usvajajući sljedeće kompromise: 354 00:28:52,120 --> 00:28:57,300 svaka žena može imati maksimalno tri noćna gosta tjedno 355 00:29:01,160 --> 00:29:04,827 - nisu rekli da li to mora biti ista osoba ili tri različite - 356 00:29:05,410 --> 00:29:08,716 uz uvjet, i u tome je bio kompromis, uz uvjet 357 00:29:09,240 --> 00:29:13,731 da gost plaća 50 pensa da namiri trošak fakulteta. 358 00:29:15,340 --> 00:29:20,345 Sljedeći dan pojavio se naslov u nacionalnim novinama: 359 00:29:20,840 --> 00:29:24,880 'Djevojke na St Anne, 50 pensa za noć'! 360 00:29:29,090 --> 00:29:35,130 Još jedna ilustracija teškoće prevođenja svih vrijednosti, 361 00:29:36,150 --> 00:29:38,585 - u ovom slučaju određene ideje vrline - 362 00:29:38,930 --> 00:29:41,054 u utilitarističke termine. 363 00:29:42,900 --> 00:29:49,970 Dakle, ovo sve je kao ilustracija drugog prigovora utilitarizmu, 364 00:29:50,050 --> 00:29:53,899 barem onog dijela tog prigovora koji dovodi u pitanje 365 00:29:54,780 --> 00:29:58,157 ispravnost utilitarizma u stajalištu 366 00:29:58,570 --> 00:30:04,599 da možemo prihvatiti uniformnost vrijednosti, sumjerljivost svih vrijednosti, 367 00:30:04,839 --> 00:30:10,649 i prevesti sva moralna razmatranja u dolare odnosno novac. 368 00:30:12,220 --> 00:30:17,996 No postoji i drugi aspekt brige u vezi agregiranja vrijednosti i preferencija. 369 00:30:19,690 --> 00:30:25,890 Zašto bismo trebali odvagnuti sve preferencije koje ljudi imaju 370 00:30:26,910 --> 00:30:31,206 bez procjenjivanja jesu li te preferencije dobre ili loše? 371 00:30:32,130 --> 00:30:39,091 Ne bismo li trebali razlikovati viša i niža zadovoljstva? 372 00:30:41,760 --> 00:30:48,300 Dio sklonosti da ne radimo kvalitatine razlike između vrijednosti preferencija ljudi, 373 00:30:48,490 --> 00:30:54,510 djelomično smo tome skloni zato jer je to neosuđujuće i egalitaristički. 374 00:30:55,250 --> 00:30:57,262 Benthamov utilitarista kaže: 375 00:30:57,540 --> 00:31:03,812 Svačije preferencije se računaju bez obzira na to što ljudi žele, 376 00:31:04,280 --> 00:31:07,505 bez obzira na to što veseli različite ljude. 377 00:31:08,070 --> 00:31:11,771 Za Benthama, važno je jedino, sjetit ćete se, 378 00:31:13,210 --> 00:31:17,261 intenzitet i trajanje zadovoljstva ili boli. 379 00:31:18,270 --> 00:31:23,264 Takozvana viša zadovoljstva ili plemenite vrline su jednostavno one, prema Benthamu, 380 00:31:24,040 --> 00:31:27,560 koje proizvode jače, duže zadovoljstvo. 381 00:31:29,040 --> 00:31:32,450 Čuvena fraza za iskazivanje te ideje je 382 00:31:32,790 --> 00:31:38,334 'količina zadovoljstva je jednaka, radi li se o pribadači ili poeziji'. 383 00:31:39,139 --> 00:31:40,814 Što je bila 'pribadača'? 384 00:31:41,339 --> 00:31:45,927 Bila je to neka vrsta dječje igre, 'igra pribadača dobra je koliko i poezija', 385 00:31:46,559 --> 00:31:47,684 kaže je Bentham. 386 00:31:48,850 --> 00:31:53,264 A, mislim da ispod te ideje leži tvrdnja, slutnja, 387 00:31:54,090 --> 00:32:02,040 da je oholo prosuđivati čija su zadovoljstva intrinzično viša ili vrednija ili bolja. 388 00:32:03,850 --> 00:32:07,590 I ima nešto privlačno u tom odbijanju da se prosuđuje, 389 00:32:07,700 --> 00:32:11,862 na koncu neki ljudi vole Mozarta, drugi Madonnu, 390 00:32:12,520 --> 00:32:16,490 neki ljudi vole balet, drugi kuglanje. 391 00:32:17,360 --> 00:32:19,939 Tko je taj koji će reći, mogao bi tvrditi Bentham, 392 00:32:20,030 --> 00:32:22,270 tko je taj koji će reći koja od tih zadovoljstava, 393 00:32:23,140 --> 00:32:27,965 čija zadovoljstva su viša, vrednija, plemenitija od drugih? 394 00:32:30,460 --> 00:32:32,700 Ali, je li to ispravno? 395 00:32:35,540 --> 00:32:38,754 To odbijanje da radimo kvalitativne razlike. 396 00:32:40,030 --> 00:32:44,182 Možemo li se mi sasvim odreći ideje 397 00:32:44,850 --> 00:32:51,180 da su određene stvari, koje nam čine zadovoljstvo, bolje ili vrednije od drugih? 398 00:32:53,470 --> 00:32:58,470 Sjetite se Rimljana u koloseumu, jedna stvar koja je u tome ljude smetala 399 00:32:58,610 --> 00:33:02,010 bilo je da su se time izgleda kršila prava kršćana. 400 00:33:04,010 --> 00:33:06,770 Druga zamjerka onome što se tu događa 401 00:33:07,250 --> 00:33:11,990 je uživanje Rimljana u tom krvavom spektaklu. 402 00:33:13,230 --> 00:33:17,534 Treba li to zadovoljstvo, koje je sramotno i na neki način korumpirano, 403 00:33:18,880 --> 00:33:20,480 ponižavajuće zadovoljstvo, 404 00:33:20,600 --> 00:33:26,530 treba li to uopće biti valorizirano odnosno vagano pri odlučivanju 405 00:33:26,960 --> 00:33:28,965 o tome što je opće dobro? 406 00:33:33,770 --> 00:33:36,770 Dakle, ovo su prigovori na Benthamov uitlitarizam, 407 00:33:38,760 --> 00:33:43,950 a sada se okrećemo nekome tko je pokušao odgovoriti na te prigovore, 408 00:33:45,410 --> 00:33:48,748 mlađi utilitarista, John Stuart Mill. 409 00:33:50,120 --> 00:33:53,260 Ono što sada trebamo ispitati 410 00:33:54,210 --> 00:34:01,409 je, da li John Stuart Mill ima uvjerljivi odgovor na ove prigovore utilitarizmu. 411 00:34:04,750 --> 00:34:12,500 John Stuart Mill je rođen 1806., njegov otac, James Mill bio je Benthamov učenik 412 00:34:14,079 --> 00:34:19,359 i James Mill se odlučio svom sinu, Johnu Stuartu Millu, dati primjereno obrazovanje. 413 00:34:20,329 --> 00:34:23,119 On je bio čudo od djeteta, John Stuart Mill, 414 00:34:23,569 --> 00:34:27,769 znao je grčki s tri godine, latinski s osam, 415 00:34:27,859 --> 00:34:30,866 a u dobi od 10 godina napisao je Povijest rimskog prava. 416 00:34:33,659 --> 00:34:36,790 U dobi od 20 godina doživio je živčani slom, 417 00:34:38,939 --> 00:34:41,527 to ga je bacilo u depresiju pet godina, 418 00:34:43,399 --> 00:34:46,469 ali sa 25, ono što mu je pomoglo da se izvuče iz te depresije 419 00:34:46,800 --> 00:34:48,865 je susret s Harriet Taylor. 420 00:34:49,949 --> 00:34:52,529 Ona Mill su se oženili i živjeli sretno do kraja života 421 00:34:52,659 --> 00:34:54,849 i bilo je to pod njenim utjecajem 422 00:34:56,399 --> 00:35:00,729 da je John Stuart Mill pokušao humanizirati utilitarizam. 423 00:35:01,430 --> 00:35:03,740 Ono što je Mill pokušao je učiniti je da ustanovi 424 00:35:03,899 --> 00:35:09,710 da li utilitarističko računanje može biti prošireno i modificirano 425 00:35:11,200 --> 00:35:15,209 kako bi zadovoljilo humanitarne dvojbe poput: 426 00:35:17,429 --> 00:35:19,510 brige za poštovanje prava pojedinca 427 00:35:20,390 --> 00:35:25,248 i također razlike između viših i nižih zadovoljstava. 428 00:35:26,389 --> 00:35:29,658 1859. Mill je napisao čuvenu knjigu 'O slobodi', 429 00:35:30,369 --> 00:35:35,399 čija je glavna tema važnost obrane prava pojedinca i prava manjina, 430 00:35:36,380 --> 00:35:39,246 a 1861. pred kraj života 431 00:35:39,909 --> 00:35:42,603 napisao je knjigu koju čitamo u okviru ovog kolegija 432 00:35:43,130 --> 00:35:44,545 'Utilitarizam'. 433 00:35:45,099 --> 00:35:50,289 U njoj pojašnjava da je korisnost jedino mjerilo moralnosti, po njemu. 434 00:35:50,769 --> 00:35:53,439 Dakle, on ne dovodi u pitanje Benthamovu premisu, 435 00:35:53,679 --> 00:35:55,009 on je potvrđuje. 436 00:35:55,279 --> 00:35:57,914 On vrlo izričito kaže, 'Jedini dokaz 437 00:35:58,829 --> 00:36:04,659 da je moguće postići da je bilo što poželjno, je taj da ljudi to zaista žele.' 438 00:36:05,929 --> 00:36:14,009 Dakle, on ostaje kod ideje da su de facto empirijske želje jedini temelj za moralnu prosudbu. 439 00:36:15,619 --> 00:36:19,709 Ali onda - strana 8 također u poglavlju 2 - 440 00:36:19,809 --> 00:36:26,698 on tvrdi da je utilitarista u mogućnosti razlikovati viša od nižih zadovoljstava. 441 00:36:28,700 --> 00:36:31,350 Vi koji ste već čitali Milla, 442 00:36:32,079 --> 00:36:35,989 kako je, po njemu, moguće utvrditi tu razliku? 443 00:36:36,559 --> 00:36:42,149 Kako utilitarista može kvalitativno razlikovati viša zadovoljstva 444 00:36:42,819 --> 00:36:45,900 od nižih, sramotnih, nevrijednih? 445 00:36:48,859 --> 00:36:53,873 Ako ste probali oba, prirodno ćete dati prednost onom višem, uvijek. 446 00:36:55,309 --> 00:36:57,499 Sjajno, to je točno. Kako se zovete? 447 00:36:57,499 --> 00:36:58,489 John. 448 00:36:59,669 --> 00:37:02,334 Pa, kako ističe John, Mill kaže, 449 00:37:02,529 --> 00:37:10,301 'Evo testa, budući da ne možemo iskoračiti izvan stvarnih želja i preferencija, 450 00:37:10,490 --> 00:37:13,109 to bi narušilo utilitarističke premise, 451 00:37:13,670 --> 00:37:14,869 jedini test 452 00:37:16,819 --> 00:37:20,260 da li je zadovoljstvo više ili niže, 453 00:37:20,549 --> 00:37:27,248 je da li bi mu netko tko je doživio oba, dao prednost. 454 00:37:28,909 --> 00:37:35,049 A ovdje, u poglavlju 2, vidimo odlomak u kojem Mill govori ono što je John opisao. 455 00:37:36,919 --> 00:37:40,130 'Od dva zadovoljstva, ako postoji jedno kojem bi svi, ili skoro svi, 456 00:37:40,130 --> 00:37:43,382 koji imaju iskustvo oba, 457 00:37:43,500 --> 00:37:45,243 dali odlučujuću prednost, 458 00:37:45,499 --> 00:37:49,049 bez obzira na bilo kakav osjećaj moralne obaveze da ga preferiraju, 459 00:37:49,049 --> 00:37:52,062 drugim riječima, bez ikakvog vanjskog, nezavisnog mjerila, 460 00:37:53,390 --> 00:37:56,596 onda je to poželjnije zadovoljstvo.' 461 00:37:57,529 --> 00:37:59,829 Što ljudi misle o tom argumentu? 462 00:38:01,549 --> 00:38:02,889 Da li je djelotvoran? 463 00:38:03,489 --> 00:38:05,833 Koliko vas misli da je djelotvoran 464 00:38:06,380 --> 00:38:11,089 za diskusiju o razlikovanju između viših i nižih zadovoljstava u terminima utilitarizma? 465 00:38:11,489 --> 00:38:13,560 Koliko vas misli da nije djelotvoran? 466 00:38:17,789 --> 00:38:19,691 Želim čuti vaše razloge. 467 00:38:20,829 --> 00:38:25,414 Ali prije no što izložimo razloge, napravit ćemo jedan pokus 468 00:38:26,329 --> 00:38:29,178 u vezi Millove tvrdnje. 469 00:38:31,389 --> 00:38:33,949 Da bismo mogli napraviti taj pokus 470 00:38:35,199 --> 00:38:43,045 pogledat ćemo tri kratka isječka popularne zabave. 471 00:38:44,889 --> 00:38:47,230 Prvi je Hamletov monolog 472 00:38:48,170 --> 00:38:52,939 iza kojeg slijede dva druga doživljaja. 473 00:38:55,420 --> 00:38:56,609 Da vidimo što vi mislite. 474 00:38:57,709 --> 00:38:59,677 'Kakvo je remek-djelo čovjek! 475 00:39:01,809 --> 00:39:03,343 Kako plemenit umom! 476 00:39:04,359 --> 00:39:06,429 Kako neograničen u sposobnostima! 477 00:39:06,749 --> 00:39:10,609 U liku i pokretu kako je izražajan i divan! 478 00:39:10,899 --> 00:39:14,409 U djelima kako sličan anđelu, u mislima kako sličan Bogu! 479 00:39:14,949 --> 00:39:17,837 Ljepota svijeta, uzor svim životinjama! 480 00:39:18,349 --> 00:39:23,179 Pa ipak, što je za mene ta kvintesencija prašine? 481 00:39:24,309 --> 00:39:26,227 Čovjek mene ne očarava.' 482 00:39:41,909 --> 00:39:45,576 'Zamislite svijet u kojem vaši najveći strahovi postaju stvarnost. 483 00:39:47,069 --> 00:39:51,929 Svaki show, šest natjecatelja iz cijele zemlje bore se međusobno u tri ekstremne egzibicije. 484 00:39:52,609 --> 00:39:58,421 Te egzibicije smišljene su kao izazovi za natjecatelje, fizički i mentalno. 485 00:39:58,579 --> 00:40:02,586 Šest natjecatelja, tri egzibicije, jedan pobjednik. 486 00:40:03,869 --> 00:40:05,135 Fear Factor. 487 00:40:12,299 --> 00:40:13,439 Simpsoni. 488 00:40:18,269 --> 00:40:21,100 Flanders, otkad ti voliš kul stvari? 489 00:40:21,210 --> 00:40:26,909 Pa, nije mi do brzine, ali obožavam tu zaštitnu opremu, kacige, zaštitne šipke, zastavice. 490 00:40:26,909 --> 00:40:30,896 Ja volim friški zrak i gledati jadnike na terenu. 491 00:40:34,189 --> 00:40:37,019 Dang Cletus, zašto si morao parkirati pokraj mojih roditelja? 492 00:40:37,139 --> 00:40:40,288 Ne draga, to su i moji roditelji. 493 00:40:55,759 --> 00:40:58,929 Ne moram ni pitati koji vam se najviše sviđao. 494 00:41:00,629 --> 00:41:04,017 Simpsoni? Kome su se najviše sviđali Simpsoni? 495 00:41:05,109 --> 00:41:06,715 Kome Shakespeare? 496 00:41:10,140 --> 00:41:11,760 A Fear Factor? 497 00:41:11,860 --> 00:41:13,929 Koliko vas više voli Fear Factor? 498 00:41:15,959 --> 00:41:17,064 Stvarno? 499 00:41:21,279 --> 00:41:24,639 Nadmoćnoj većini sviđaju se Simpsoni 500 00:41:25,769 --> 00:41:29,229 više od Shakespearea. 501 00:41:29,459 --> 00:41:32,732 U redu, uzmimo sad drugi dio glasača. 502 00:41:33,749 --> 00:41:38,370 Koji doživljaj odnosno užitak je najviši? 503 00:41:39,409 --> 00:41:42,179 Koliko ih kaže Shakespeare? 504 00:41:47,789 --> 00:41:50,636 Koliko ih kaže Fear Factor? 505 00:41:54,189 --> 00:41:56,559 Ne, vi se sigurno šalite. Ozbiljno? 506 00:42:01,039 --> 00:42:02,339 Samo naprijed, recite. 507 00:42:02,709 --> 00:42:04,391 Meni je to najzabavnije. 508 00:42:04,709 --> 00:42:08,368 Znam, ali koji doživljaj je za vas najvredniji, najplemenitiji. 509 00:42:08,368 --> 00:42:10,570 Znam da vam je to najzabavnije. 510 00:42:10,920 --> 00:42:17,553 Ako je nešto dobro samo zato što je ugodno, zašto je važno da imate neku apstraktnu ideju 511 00:42:17,553 --> 00:42:20,442 je li to dobro po mjerilima nekog drugog? 512 00:42:21,619 --> 00:42:24,248 Znači vi izravno stajete na stranu Benthama. 513 00:42:25,039 --> 00:42:28,099 Tko je taj koji će prosuditi? I zašto bi morali prosuđivati? 514 00:42:28,969 --> 00:42:33,570 Umjesto da samo registriramo i pribrojimo de facto preferencije. U redu, pošteno. 515 00:42:33,880 --> 00:42:35,149 Kako se vi zovete? 516 00:42:35,349 --> 00:42:36,749 Nate? U redu, pošteno. 517 00:42:38,219 --> 00:42:42,079 Koliko vas misli da su Simpsoni ustvari, osim što vam se sviđaju, 518 00:42:42,219 --> 00:42:46,982 da su ustvari doživljaj više razine od Shakespearea? 519 00:42:47,410 --> 00:42:49,419 Da vidimo ponovo glasove za Shakespearea. 520 00:42:49,579 --> 00:42:51,559 Koliko vas misli da je Shakespeare viši? 521 00:42:54,990 --> 00:43:00,419 Idealno bi bilo da čujem nekoga ... ima li koga tko misli da je Shakespeare najviši, 522 00:43:02,109 --> 00:43:04,914 ali radije gleda Simpsone? 523 00:43:08,739 --> 00:43:12,753 Samo sjediti i gledati Simpsone je zabavno jer se šale i nasmijavaju nas, 524 00:43:13,750 --> 00:43:16,379 ali netko nam mora reći da je Shakespeare veliki pisac, 525 00:43:16,379 --> 00:43:18,779 moramo naučiti kako ga čitati i kako ga razumijeti, 526 00:43:18,779 --> 00:43:22,689 moramo naučiti kako gledati Rembrandta, kako analizirati sliku. 527 00:43:23,150 --> 00:43:24,239 Kako se vi zovete? 528 00:43:24,239 --> 00:43:25,120 Aneesha. 529 00:43:25,560 --> 00:43:29,759 Aneesha, kad kažete da vam je netko rekao da je Shakespeare bolji, 530 00:43:31,259 --> 00:43:33,229 da li to prihvaćate 'na slijepo'? 531 00:43:33,379 --> 00:43:39,199 Glasali ste da je Shakespeare bolji samo zato jer vam to govori kultura ili učitelji? 532 00:43:39,279 --> 00:43:43,162 Ili se zaista sami slažete s tim? 533 00:43:44,049 --> 00:43:49,539 U odnosu na Shakesperea, ne, ali ranije ste dali primjer Rembrandta 534 00:43:49,740 --> 00:43:52,099 i mislim da bih više uživala čitajući strip 535 00:43:52,099 --> 00:43:56,672 nego što bih uživala analizirajući Rembrandta zato jer mi je netko rekao da je veliki slikar. 536 00:43:57,139 --> 00:44:03,089 Dakle vi sugerirate da bi nešto od toga bilo kulturna konvencija i pritisak. 537 00:44:03,249 --> 00:44:08,260 Rečeno nam je koje knjige, koja umjetnička djela su velika. 538 00:44:08,576 --> 00:44:09,570 Tko još? 539 00:44:15,309 --> 00:44:18,990 Iako sam više uživao gledajući Simpsone, ovaj čas na predavanju, 540 00:44:19,640 --> 00:44:26,302 kad bih morao ostatak svog života provesti s jednim od tri prikazana videa, 541 00:44:26,579 --> 00:44:33,574 ne bih želio provesti taj ostatak svog života gledajući zadnja dva videa. 542 00:44:33,800 --> 00:44:37,770 Mislim da bih više zadovoljstva našao u tome da budem u stanju 543 00:44:37,949 --> 00:44:39,709 razvijati se u vlastitom umu 544 00:44:41,009 --> 00:44:43,835 baveći se dubljim zadovoljstvima, dubljim mislima. 545 00:44:44,869 --> 00:44:46,100 Recite mi vaše ime. 546 00:44:46,280 --> 00:44:47,080 Joe. 547 00:44:48,580 --> 00:44:51,559 Joe, dakle kad bi morali ostatak života provesti 548 00:44:51,759 --> 00:44:59,879 na farmi u Kansasu samo sa Shakespearom ili zbirkom epizoda Simpsona, 549 00:45:02,079 --> 00:45:04,632 vi bi radije odabrali Shakespearea? 550 00:45:06,599 --> 00:45:11,239 Što iz toga zaključujete o testu John Stuart Milla? 551 00:45:12,149 --> 00:45:14,628 Da test višeg zadovoljstva pokazuje 552 00:45:14,698 --> 00:45:19,740 da li ljudi koji su doživjeli oba preferiraju dotično. 553 00:45:21,509 --> 00:45:23,480 Mogu li ukratko citirati drugi primjer? 554 00:45:23,880 --> 00:45:28,020 Na neurobiologiji prošle godine pričali su nam o pokusu sa štakorom 555 00:45:28,769 --> 00:45:31,889 gdje je štakor mogao stimulirati određeni centar u svom mozgu 556 00:45:32,029 --> 00:45:35,753 tako da uzastopno doživljava intenzivno zadovoljstvo. 557 00:45:35,879 --> 00:45:38,460 Štakor nije jeo ni pio sve dok nije umro. 558 00:45:39,229 --> 00:45:41,709 Štakor je očito doživljavao intenzivno zadovoljstvo. 559 00:45:42,179 --> 00:45:45,588 Pa sada, da me ovaj čas upitate da li bih radije doživio intenzivno zadovoljstvo 560 00:45:46,270 --> 00:45:49,530 ili imao cijeli život ispunjen višim zadovoljstvom, 561 00:45:49,610 --> 00:45:52,209 - intenzivno zadovoljstvo pritom smatram nižim zadovoljstvom - 562 00:45:52,319 --> 00:45:58,989 rado bih ovaj čas uživao u intenzivnom zadovoljstvu - da, sigurno bi - 563 00:46:00,949 --> 00:46:06,239 ali tokom cijelog života, mislim da bi se većina ovdje složila 564 00:46:06,899 --> 00:46:12,940 da bi radije bili ljudi s višim zadovoljstvom, nego taj štakor s intenzivnim zadovoljstvom 565 00:46:13,160 --> 00:46:14,799 u vrlo kratkom vremenskom periodu. 566 00:46:15,530 --> 00:46:20,399 A odgovarajući na vaše pitanje, to dokazuje da ... neću reći dokazuje, 567 00:46:21,349 --> 00:46:29,409 mislim da je zaključak da Millova teorija da ako se pita ljude što bi više voljeli, 568 00:46:31,439 --> 00:46:36,100 većina će odgovoriti da bi radije doživljavali više zadovoljstvo. 569 00:46:36,229 --> 00:46:39,356 Dakle, vi mislite da to podržava ... mislite da je Mill ovdje u pravu? 570 00:46:39,499 --> 00:46:40,428 Da, mislim. 571 00:46:40,739 --> 00:46:43,909 Ima li koga tko se ne slaže s Joeom, 572 00:46:44,169 --> 00:46:49,968 i tko misli da naš eksperiment opovrgava Millov test? 573 00:46:51,099 --> 00:46:52,969 Pokazuje da to nije adekvatan način, 574 00:46:53,239 --> 00:46:58,309 da ne možete raspoznati viša zadovoljstva u okvirima utilitarizma. 575 00:47:05,109 --> 00:47:08,199 Ako je uistinu dobro što god ljudi preferiraju, 576 00:47:08,199 --> 00:47:10,869 onda je to uistinu relativno i ne postoji objektivna definicija. 577 00:47:11,519 --> 00:47:14,548 U nekim društvima ljudi će preferirati Simpsone. 578 00:47:16,229 --> 00:47:18,070 Svatko može uživati u Simpsonima, 579 00:47:18,200 --> 00:47:21,360 ali mislim da je zaista nužna edukacija da se uživa u Shakespeareu. 580 00:47:21,450 --> 00:47:26,029 Vi kažete da je potrebna edukacija za uživanje u višim stvarima. 581 00:47:27,319 --> 00:47:34,209 Millov stav je da viša zadovoljstva zaista zahtijevaju kultivaciju i edukaciju. 582 00:47:35,090 --> 00:47:36,639 On to ne osporava. 583 00:47:37,520 --> 00:47:45,430 Ali jednom kad su kultivirani i educirani ljudi će uvidjeti, 584 00:47:45,560 --> 00:47:48,699 ne samo da će uvidjeti razliku između viših i nižih zadovoljstava, 585 00:47:49,009 --> 00:47:54,289 nego će zapravo preferirati viša pred nižima. 586 00:47:55,849 --> 00:47:58,739 Naći ćete taj čuveni citat John Stuart Milla: 587 00:47:59,419 --> 00:48:04,738 'Bolje je biti nezadovoljno ljudsko biće, nego zadovoljna svinja.' 588 00:48:05,819 --> 00:48:09,589 Bolje nezadovoljni Sokrat, nego zadovoljna budala. 589 00:48:10,539 --> 00:48:19,472 A ako budala ili svinja misle drugačije, to je zato jer znaju samo svoju stranu pitanja.' 590 00:48:20,700 --> 00:48:27,302 Dakle, tu imate pokušaj razlikovanja viših od nižih zadovoljstava, 591 00:48:28,719 --> 00:48:33,875 odnosno između posjeta muzeju i gledanja televizije uz bocu piva kod kuće. 592 00:48:34,709 --> 00:48:38,890 Mill se slaže da ponekad možda podliježemo iskušenju 593 00:48:40,710 --> 00:48:44,339 da radimo ovo zadnje, budemo TV ovisnici, 594 00:48:45,559 --> 00:48:50,359 ali čak i kad to radimo iz nemara i lijenosti, 595 00:48:50,680 --> 00:48:56,180 mi znamo da zadovoljstvo koje osjećamo zureći u Rembrandte u muzeju 596 00:48:56,800 --> 00:48:58,629 ustvari je više 597 00:48:59,809 --> 00:49:01,918 zato jer smo doživjeli oba. 598 00:49:03,190 --> 00:49:06,339 A to i jeste više zadovoljstvo, zurenje u Rembrandte, 599 00:49:06,490 --> 00:49:09,809 zato jer angažira naše više ljudske sposobnosti. 600 00:49:11,499 --> 00:49:16,991 Što je s Millovim pokušajem da odgovori na prigovor o pravima pojedinca? 601 00:49:18,890 --> 00:49:22,689 Na neki način on koristi istu vrstu argumenta. 602 00:49:25,329 --> 00:49:27,679 A to je predstavljeno u poglavlju 5. 603 00:49:27,859 --> 00:49:32,539 On kaže: 'Iako osporavam pretenzije bilo koje teorije koja postavlja 604 00:49:32,539 --> 00:49:36,454 imaginarni standard pravednosti neutemeljen na korisnosti, ...' 605 00:49:39,719 --> 00:49:45,419 Ali ipak, smatra da je pravednost utemeljena na korisnosti, 606 00:49:45,999 --> 00:49:53,529 glavni dio i neusporedivo najsvetiji i obvezujući dio svake moralnosti ...' 607 00:49:54,599 --> 00:49:58,799 Dakle, pravda jeste viša, individualna prava imaju prednost, 608 00:49:59,769 --> 00:50:04,169 ali ne iz razloga koji se razilaze sa utilitarističkim postavkama. 609 00:50:04,540 --> 00:50:08,449 'Pravednost je ime za određene moralne zahtjeve 610 00:50:08,919 --> 00:50:13,829 koji, na kolektivnoj razini, stoje više na skali društvene korisnosti 611 00:50:14,309 --> 00:50:22,180 i stoga predstavljaju mjerodavniju obavezu od bilo koje druge.' 612 00:50:23,200 --> 00:50:26,429 Dakle, pravednost je sveta, prvenstvena, povlaštena. 613 00:50:26,530 --> 00:50:30,243 To nije nešto što se može lako razmijeniti za manje vrijedne stvari, 614 00:50:30,890 --> 00:50:36,999 ali razlog je, u konačnici, tvrdi Mill, utilitaristički razlog 615 00:50:37,569 --> 00:50:42,029 Kad pogledate dugoročne interese ljudske vrste, 616 00:50:43,529 --> 00:50:46,589 svih nas kao progresivnih bića, 617 00:50:47,409 --> 00:50:50,173 ako postupamo pravedno i poštujemo prava, 618 00:50:50,689 --> 00:50:54,329 društvu će kao cjelini biti bolje, dugoročno gledano. 619 00:50:55,569 --> 00:50:57,619 Je li to uvjerljivo? 620 00:50:57,999 --> 00:51:05,588 Ili, da li Mills ustvari, ne priznajući to, izlazi izvan utilitarističkih okvira 621 00:51:06,219 --> 00:51:11,159 zalažući se za kvalitativno viša zadovoljstva 622 00:51:12,789 --> 00:51:17,349 i za sveta, odnosno posebno važna, prava pojedinca? 623 00:51:18,479 --> 00:51:20,999 Mi nismo u potpunosti odgovorili na to pitanje 624 00:51:21,269 --> 00:51:25,668 jer da bi se odgovorilo na to pitanje, u slučaju prava i pravednosti, 625 00:51:26,259 --> 00:51:31,859 nužno bi bilo istražiti druge načine, ne-utilitarističke načine, 626 00:51:33,369 --> 00:51:35,401 tumačenja osnove prava 627 00:51:36,479 --> 00:51:39,459 i onda se zapitati da li su valjana. 628 00:51:40,409 --> 00:51:42,133 Što se tiče Jeremy Benthama, 629 00:51:42,949 --> 00:51:48,739 koji je lansirao utilitarizam kao doktrinu i moralnu i pravnu filozofiju, 630 00:51:49,979 --> 00:51:53,269 Bentham je umro 1832. u dobi od 85 godina, 631 00:51:53,819 --> 00:51:57,509 ali ako odete u London možete ga i danas posjetiti, doslovno. 632 00:51:58,729 --> 00:52:02,828 U svojoj oporuci pobrinuo se da njegovo tijelo bude konzervirano, 633 00:52:03,390 --> 00:52:06,751 balzamirano i izloženo na sveučilištu University of London 634 00:52:07,739 --> 00:52:14,267 gdje još uvijek zasjeda u staklenoj vitrini s voštanom glavom u svojoj stvarnoj odjeći. 635 00:52:14,989 --> 00:52:20,689 Vidite, prije no što je umro Bentham si je postavio pitanje sukladno svojoj filozofiji, 636 00:52:22,339 --> 00:52:25,839 od kakve koristi bi mrtav čovjek mogao biti živima? 637 00:52:26,839 --> 00:52:30,263 Jedna korist, rekao je, bila bi staviti svoj leš na raspolaganje 638 00:52:30,499 --> 00:52:32,113 za studiranje anatomije. 639 00:52:33,519 --> 00:52:35,841 U slučaju velikih filozofa, međutim, 640 00:52:37,129 --> 00:52:43,619 još je bolje sačuvati svoju fizičku prisutnost kao inspiraciju budućim generacijama mislilaca. 641 00:52:44,599 --> 00:52:47,298 Želite vidjeti kako izgleda punjeni Bentham? 642 00:52:47,419 --> 00:52:48,440 Ovako izgleda. 643 00:52:53,549 --> 00:52:56,154 Ako pogledate pažljivo, primjetit ćete 644 00:52:57,459 --> 00:53:04,970 da balzamiranje njegove stvarne glave nije baš uspjelo pa su je zamijenili voštanom, 645 00:53:06,910 --> 00:53:13,789 a na dnu radi vjerodostojnosti možete vidjeti njegovu pravu glavu na tanjuru. 646 00:53:16,529 --> 00:53:17,319 Vidite? 647 00:53:17,809 --> 00:53:18,910 Ovdje. 648 00:53:22,159 --> 00:53:24,360 Pa, koja je pouka priče? 649 00:53:25,709 --> 00:53:26,959 Pouka priče ... 650 00:53:29,499 --> 00:53:33,341 Usput, vade ga za vrijeme zasjedanja vijeća na University College London, 651 00:53:33,699 --> 00:53:37,444 a u zapisniku ga bilježe kao prisutnog bez prava glasa. 652 00:53:40,079 --> 00:53:49,799 Ovdje je filozof u životu i smrti koji se držao principa svoje filozofije. 653 00:53:49,900 --> 00:53:52,260 Idući puta nastavit ćemo s pravima.