1 00:00:20,040 --> 00:00:23,040 Pravednost Michael Sandel 2 00:00:23,920 --> 00:00:26,580 Ima li život cijenu? 3 00:00:29,390 --> 00:00:37,510 Prošli puta diskutirali smo o slučaju Karljica protiv Dudleya i Stephensa, 4 00:00:39,400 --> 00:00:43,790 slučaj u čamcu za spasavanje, slučaj kanibalizma na moru, 5 00:00:45,970 --> 00:00:49,620 i imajući na umu argumente slučaja čamca za spasavanje, 6 00:00:49,839 --> 00:00:53,220 argumente za i protiv onoga što su učinili Dudley i Stephens, 7 00:00:54,150 --> 00:01:00,200 vratimo se na utilitarističku filozofiju Jeremya Benthama. 8 00:01:02,060 --> 00:01:04,570 Bentham je rođen u Engleskoj 1748., 9 00:01:04,620 --> 00:01:08,978 sa 12 godina pohađao je Oxford, sa 15 se upisao na pravni fakultet. 10 00:01:09,740 --> 00:01:14,920 Sa 19 primljen je u Odvjetničku komoru, ali nikada se nije bavio pravom, 11 00:01:14,820 --> 00:01:19,816 umjesto toga posvetio je život filozofiji prava i filozofiji morala. 12 00:01:22,170 --> 00:01:26,715 Prošli puta počeli smo razmatrati Benthamovu verziju utilitarizma. 13 00:01:27,690 --> 00:01:30,990 Glavna ideja, sažeto sročena, je ova: 14 00:01:32,780 --> 00:01:37,700 najviši princip morala, bilo osobnog ili političkog morala, 15 00:01:40,529 --> 00:01:43,780 je maksimiziranje općeg dobra 16 00:01:44,000 --> 00:01:46,170 ili kolektivne sreće, 17 00:01:46,560 --> 00:01:49,244 ili ukupne ravnoteže zadovoljstva nad boli 18 00:01:50,070 --> 00:01:53,338 u izrazu maksimizirane korisnosti. 19 00:01:56,150 --> 00:01:59,747 Bentham dolazi do tog principa rasuđujući na sljedeći način: 20 00:02:00,570 --> 00:02:02,650 svima nama upravljaju bol i zadovoljstvo, 21 00:02:03,150 --> 00:02:07,889 oni su naši suvereni gospodari, pa ih svaki moralni sistem mora uzeti u obzir. 22 00:02:08,828 --> 00:02:10,819 Kako ih najbolje uzeti u obzir? 23 00:02:10,999 --> 00:02:12,392 Maksimiziranjem 24 00:02:13,739 --> 00:02:17,999 i to vodi principu 'najvećeg dobra za najveći broj'. 25 00:02:19,400 --> 00:02:21,394 Što bismo točno trebali maksimizirati? 26 00:02:22,749 --> 00:02:24,978 Bentham nam kaže - sreću 27 00:02:25,510 --> 00:02:28,256 ili, preciznije, korisnost. 28 00:02:28,679 --> 00:02:33,439 Maksimiziranje korisnosti nije najvažnije samo za pojedince, već i za zajednice 29 00:02:33,929 --> 00:02:35,460 i zakonodavce. 30 00:02:36,569 --> 00:02:39,239 Na koncu, što je zajednica? - pita Bentham. 31 00:02:41,359 --> 00:02:44,377 To je suma pojedinaca koji je sačinjavaju. 32 00:02:44,779 --> 00:02:47,520 I zbog toga, u odlučivanju o najboljim politikama, 33 00:02:47,650 --> 00:02:51,360 u odlučivanju što bi trebalo biti zakon, u odlučivanju što je pravedno, 34 00:02:52,380 --> 00:02:56,609 građani i zakonodavci bi se trebali zapitati: 35 00:02:56,609 --> 00:03:00,760 Ako zbrojimo sve prednosti ove politike 36 00:03:03,870 --> 00:03:06,447 i oduzmemo sve troškove, 37 00:03:08,829 --> 00:03:11,429 ispravna stvar koju treba učiniti je ona 38 00:03:11,779 --> 00:03:16,665 koja maksimizira saldo sreće nad patnjom. 39 00:03:20,869 --> 00:03:22,629 To znači maksimizirati korisnost. 40 00:03:23,769 --> 00:03:29,498 Danas želim ustanoviti da li se vi slažete s tim ili ne. 41 00:03:30,700 --> 00:03:36,200 A ta utilitarna logika često dolazi pod nazivom analiza troškova i koristi 42 00:03:36,650 --> 00:03:42,429 koju koriste kompanije i vlade cijelo vrijeme. 43 00:03:43,369 --> 00:03:49,578 A ono što ona uključuje je vrednovanje, obično u dolarima, korisnosti, 44 00:03:50,899 --> 00:03:54,797 kao i troškova i prednosti raznih prijedloga. 45 00:03:56,309 --> 00:03:58,529 Nedavno je u Republici Češkoj 46 00:03:58,879 --> 00:04:02,700 predstavljen prijedlog za povećanje trošarine na pušenje. 47 00:04:03,120 --> 00:04:05,980 Philip Morris, duhanska kompanija, 48 00:04:07,679 --> 00:04:10,439 ostvaruje veliku dobit u Republici Češkoj. 49 00:04:10,669 --> 00:04:14,579 Oni su naručili studiju analize troškova i koristi 50 00:04:15,148 --> 00:04:18,068 za pušenje u Republici Češkoj. 51 00:04:18,678 --> 00:04:21,787 I ono što je ustanovila ta studija analize troškova i koristi, 52 00:04:23,550 --> 00:04:29,396 je da vlada ostvaruje dobit zahvaljujući pušenju čeških građana. 53 00:04:30,779 --> 00:04:32,360 Pa, kako ostvaruju dobit? 54 00:04:32,660 --> 00:04:38,519 Istina je da postoje negativni učinci na javne financije češke vlade, 55 00:04:40,000 --> 00:04:45,694 zbog povećanih troškova zdravstva za ljude koji pate od bolesti povezanih s pušenjem, 56 00:04:47,239 --> 00:04:49,799 s druge strane, postoje pozitivni učinci, 57 00:04:50,730 --> 00:04:54,600 a to su, pribrojeni na drugoj strani bilance, 58 00:04:55,379 --> 00:04:59,180 pozitivni učinci su uključivali, najvećim dijelom, razne porezne prihode 59 00:04:59,260 --> 00:05:03,539 koje vlada ostvaruje prodajom duhanskih proizvoda, 60 00:05:03,800 --> 00:05:08,305 no također su uključivali uštede u zdravstvu kad ljudi umiru ranije, 61 00:05:08,910 --> 00:05:12,466 uštede na penzijama - ne morate plaćati penzije tako dugo - 62 00:05:13,339 --> 00:05:17,149 i također uštede na troškovima domova za starije. 63 00:05:19,679 --> 00:05:22,679 I kad su bili sumirani svi troškovi i koristi, 64 00:05:24,640 --> 00:05:27,340 studija Philip Morrisa je ustanovila 65 00:05:27,870 --> 00:05:32,010 da neto dobit javnih financija Republike Češke iznosi 66 00:05:32,610 --> 00:05:35,479 147 milijuna dolara, 67 00:05:36,449 --> 00:05:40,670 a u odnosu na uštede na smještaju i zdravstvenoj skrbi i mirovinama, 68 00:05:41,407 --> 00:05:50,839 vlada uživa uštedu od preko 1200 dolara za svaku osobu koja prerano umre zbog pušenja. 69 00:05:51,919 --> 00:05:53,870 Analiza troškova i koristi. 70 00:05:56,740 --> 00:06:02,289 Oni od vas koji brane utilitarizam mogli bi pomisliti da ovaj test nije fer. 71 00:06:03,389 --> 00:06:09,130 Philip Morris je bio razapet u štampi i objavio je ispriku za ovu bezdušnu kalkulaciju. 72 00:06:10,680 --> 00:06:13,089 Mogli biste reći da je ono što ovdje nedostaje 73 00:06:13,139 --> 00:06:17,252 nešto što utilitaristi mogu lako ugraditi, napose 74 00:06:19,339 --> 00:06:24,160 vrijednost za osobu i obitelji onih koji umiru od raka pluća. 75 00:06:25,599 --> 00:06:27,642 A što je sa vrijednošću života? 76 00:06:29,190 --> 00:06:35,554 Neke analize troškova i koristi sadržavaju mjeru za vrijednost života. 77 00:06:36,809 --> 00:06:40,933 Jedan od najpoznatijih je slučaj Ford Pinto automobila. 78 00:06:41,330 --> 00:06:44,138 Je li itko čitao o tome? To je bilo 1970.-tih. 79 00:06:44,298 --> 00:06:47,499 Sjećate se da je Ford Pinto bio marka automobila? 80 00:06:47,750 --> 00:06:48,639 Itko? 81 00:06:51,029 --> 00:06:54,899 To je bio mali auto, kompakt klase, vrlo popularan, 82 00:06:55,949 --> 00:07:00,849 ali imao je jedan problem, a to je da je rezervoar za gorivo bio straga 83 00:07:01,599 --> 00:07:04,718 i kod udarca u stražnji dio rezervoar bi eksplodirao 84 00:07:07,660 --> 00:07:11,570 i neki ljudi su poginuli, a neki su bili ozbiljno povrijeđeni. 85 00:07:13,749 --> 00:07:18,348 Žrtve tih nesreća tužile su Ford, 86 00:07:18,768 --> 00:07:21,438 a na suđenju se ispostavilo 87 00:07:21,669 --> 00:07:26,710 da je Ford odavno znao za riskantnost rezervoara za gorivo 88 00:07:27,499 --> 00:07:32,169 i da je napravio analizu troškova i koristi kako bi ustanovio da li bi se isplatilo 89 00:07:33,599 --> 00:07:35,833 ugraditi posebni štit 90 00:07:36,090 --> 00:07:39,574 koji bi zaštitio rezervoar i spriječio da eksplodira. 91 00:07:40,490 --> 00:07:42,519 Napravili su analizu troškova i koristi; 92 00:07:42,979 --> 00:07:48,766 cijena dijela koji bi povećao sigurnost Pinta, 93 00:07:50,299 --> 00:07:53,568 izračunali su da iznosi 11 dolara po komadu. 94 00:07:55,939 --> 00:08:01,347 A ovo je analiza troškova i koristi koja se pojavila na suđenju, 95 00:08:02,879 --> 00:08:08,812 11 dolara po komadu za 12,5 milijuna automobila i kamiona 96 00:08:09,670 --> 00:08:15,938 iznosila je ukupno 137 milijuna dolara za povećanje sigurnosti. 97 00:08:17,370 --> 00:08:22,178 A onda su izračunali prednosti ulaganja tog novca u sigurniji auto. 98 00:08:23,300 --> 00:08:28,197 Prebrojali su 180 smrti i pridijelili dolarsku vrijednost: 99 00:08:29,130 --> 00:08:31,079 200 tisuća dolara po jednoj smrti. 100 00:08:32,170 --> 00:08:36,820 180 povreda - 67 tisuća dolara; 101 00:08:37,490 --> 00:08:40,999 i onda troškovi popravka i zamjene za 2000 vozila, 102 00:08:40,999 --> 00:08:44,174 koji bi bili uništeni bez tog zaštitnog dijela, 103 00:08:44,719 --> 00:08:46,875 700 dolara po vozilu. 104 00:08:48,060 --> 00:08:53,690 Tako se pokazalo da bi prednosti iznosile samo 49,5 milijuna 105 00:08:53,930 --> 00:08:56,920 i stoga nisu ugradili tu zaštitu. 106 00:08:57,570 --> 00:09:00,519 Nepotrebno je napominjati, da kad se taj memo 107 00:09:01,700 --> 00:09:06,420 o analizi troškova i koristi kompanije Ford Motor Company pojavio na suđenju, 108 00:09:09,160 --> 00:09:13,220 prenerazio je porotnike, koji su dosudili goleme odštete. 109 00:09:15,950 --> 00:09:20,020 Je li to protuprimjer za utilitarističku ideju izračuna? 110 00:09:20,360 --> 00:09:24,644 Jer Ford je uključio mjeru za vrijednost života. 111 00:09:27,320 --> 00:09:31,940 Tko bi od vas želio braniti analizu troškova i koristi 112 00:09:33,190 --> 00:09:35,120 u ovom očitom protuprimjeru? 113 00:09:35,320 --> 00:09:36,740 Tko ima obranu? 114 00:09:38,520 --> 00:09:43,350 Ili mislite da to u potpunosti ruši cijeli utiilitaristički izračun? 115 00:09:47,410 --> 00:09:50,970 Ja mislim da su opet napravili isti grešku kao u prethodnom slučaju 116 00:09:51,220 --> 00:09:56,116 pridijelivši dolarsku vrijednost ljudskom životu ne uzimajući u obzir stvari poput 117 00:09:56,270 --> 00:10:02,990 patnje i emocionalni gubitak obitelji, koje su izgubile prihode, ali i svoje voljene. 118 00:10:03,860 --> 00:10:06,700 a to vrijedi više od 200 tisuća dolara. 119 00:10:06,820 --> 00:10:08,540 Čekajte, kako se vi zovete? 120 00:10:09,171 --> 00:10:10,177 Julie Roto. 121 00:10:10,480 --> 00:10:15,060 Pa, Julie, 200 tisuća je preniska cifra 122 00:10:15,230 --> 00:10:20,100 jer ne uključuje gubitak voljenih i gubitak svih tih godina života. 123 00:10:21,660 --> 00:10:25,650 Što vi mislite, koji bi broj bio točniji? 124 00:10:26,970 --> 00:10:28,660 Ne vjerujem da mogu dati broj, 125 00:10:28,660 --> 00:10:32,669 mislim da se takva vrsta analize ne bi smjela koristiti u pitanjima ljudskog života. 126 00:10:32,764 --> 00:10:34,943 Mislim da se to ne može izraziti novčano. 127 00:10:35,100 --> 00:10:38,170 Dakle, oni ne samo da su stavili premalu brojku, 128 00:10:39,270 --> 00:10:42,672 kaže Julie, nego su pogriješili stavljajući bilo koji broj. 129 00:10:44,510 --> 00:10:46,230 U redu, da čujemo nekoga tko ... 130 00:10:49,540 --> 00:10:51,860 Morate uzeti u obzir inflaciju? 131 00:10:58,260 --> 00:10:59,690 U redu, pošteno. 132 00:11:00,050 --> 00:11:02,250 Pa koji bi to onda broj sada bio? 133 00:11:02,660 --> 00:11:04,875 To je bilo prije 35 godina. 134 00:11:07,370 --> 00:11:08,970 Dva milijuna dolara? 135 00:11:10,090 --> 00:11:11,540 Vi bi stavili dva milijuna? 136 00:11:12,030 --> 00:11:13,269 A kako se vi zovete? 137 00:11:13,269 --> 00:11:14,099 Voicheck. 138 00:11:14,309 --> 00:11:16,758 Voicheck kaže, moramo uzeti u obzir inflaciju 139 00:11:17,330 --> 00:11:19,049 Trebali bi biti velikodušniji. 140 00:11:19,360 --> 00:11:23,370 Bi li tada smatrali da je ovo ispravan način razmišljanja o tom pitanju? 141 00:11:25,170 --> 00:11:31,350 Pretpostavljam, nažalost tu negdje treba staviti broj, 142 00:11:32,161 --> 00:11:34,440 nisam siguran koji bi to broj bio, 143 00:11:34,480 --> 00:11:40,430 ali se slažem da bi se mogao staviti broj na ljudski život. 144 00:11:41,060 --> 00:11:43,109 U redu. Dakle Voicheck kaže, 145 00:11:44,260 --> 00:11:46,470 i tu se ne slaže s Julie, ... 146 00:11:46,649 --> 00:11:51,480 Julie kaže, ne možemo staviti broj na ljudski život u svrhu analize troškova i koristi. 147 00:11:51,690 --> 00:11:56,030 Voicheck kaže - moramo jer moramo donositi odluke, nekako. 148 00:11:59,520 --> 00:12:01,902 Što drugi misle o tome? 149 00:12:01,980 --> 00:12:05,340 Je li itko ovdje spreman braniti analizu troškova i koristi? 150 00:12:06,200 --> 00:12:08,060 Kao točnu i poželjnu? 151 00:12:09,810 --> 00:12:14,460 Ja mislim kad Ford i druge auto kompanije ne bi koristile analizu troškova i koristi 152 00:12:15,260 --> 00:12:18,209 na koncu bi propale jer ne bi mogle biti profitabilne 153 00:12:18,489 --> 00:12:21,749 i milijuni ljudi ne bi mogli koristiti njihove aute za odlazak na posao 154 00:12:21,749 --> 00:12:24,195 kako bi prehranili svoju djecu. 155 00:12:24,385 --> 00:12:27,725 Zato mislim da ako se ne koristi analiza troškova i koristi 156 00:12:28,340 --> 00:12:32,478 žrtvuje se opće dobro u tom slučaju. 157 00:12:32,810 --> 00:12:34,500 Dobro, da vas pitam kako se zovete? 158 00:12:34,530 --> 00:12:35,279 Raul. 159 00:12:37,589 --> 00:12:42,399 Raul, nedavno je provedena studija o upotrebi mobitela u autu za vrijeme vožnje 160 00:12:42,760 --> 00:12:45,340 i vodila se diskusija o tome treba li to zabraniti 161 00:12:48,660 --> 00:12:53,611 Procjena je da oko 2000 ljudi umire 162 00:12:54,810 --> 00:13:00,240 u nesrećama svake godine zbog korištenja mobitela. 163 00:13:00,900 --> 00:13:06,640 a ipak analiza troškova i koristi koju je napravio Centar za analizu rizika na Harvardu 164 00:13:07,860 --> 00:13:11,980 ustanovila je da ako pogledate prednosti korištenja mobitela 165 00:13:13,560 --> 00:13:18,439 i procijenite vrijednost života, dođe skoro na isto 166 00:13:19,050 --> 00:13:23,960 zbog goleme ekonomske koristi omogućavanja ljudima da iskoriste vrijeme, 167 00:13:24,040 --> 00:13:27,330 da ne gube vrijeme, da mogu ugovarati poslove i razgovarati s prijateljima i tako dalje 168 00:13:27,370 --> 00:13:28,720 za vrijeme dok voze. 169 00:13:29,900 --> 00:13:36,140 Ne sugerira li to da je pogrešno ljudski život vrednovati novčanim iznosima? 170 00:13:37,590 --> 00:13:40,564 Pa, ja mislim da ako velika većina ljudi 171 00:13:41,320 --> 00:13:45,369 pokušava izvući maksimalnu korist iz usluge kao što je upotreba mobitela 172 00:13:45,880 --> 00:13:47,739 i pogodnosti koju pružaju mobiteli, 173 00:13:47,989 --> 00:13:52,710 tada je žrtva nužna da bi ljudi bili zadovoljni. 174 00:13:53,230 --> 00:13:55,649 Vi ste otvoreno utilitarista?! 175 00:13:56,530 --> 00:13:57,270 Da. 176 00:14:00,020 --> 00:14:01,318 Zadnje pitanje Raul, 177 00:14:03,600 --> 00:14:05,619 a postavio sam ga i Voichecku. 178 00:14:05,679 --> 00:14:11,670 Koja bi morala biti cijena ljudskog života u dolarima da bi se zabranilo korištenje mobitela? 179 00:14:12,870 --> 00:14:17,709 Ne želim proizvoljno računati brojke ovoga časa... 180 00:14:21,350 --> 00:14:23,359 Želite li to uzeti u razmatranje? 181 00:14:23,610 --> 00:14:24,790 Da, uzet ću to ... 182 00:14:25,090 --> 00:14:28,069 Ali ugrubo, koliko bi to bilo? Imate 2300 smrti, 183 00:14:28,690 --> 00:14:31,970 morate odrediti dolarsku vrijednost da biste znali želite li spriječiti te smrti 184 00:14:32,010 --> 00:14:34,539 zabranom upotrebe mobitela u autima. 185 00:14:36,660 --> 00:14:39,940 Pa, imate li neki osjećaj koliko? 186 00:14:40,350 --> 00:14:41,859 Milijun, dva milijuna? 187 00:14:42,280 --> 00:14:44,170 Dva milijuna je bila Voitechova cifra. 188 00:14:44,410 --> 00:14:46,410 Je li to otprilike točno? - Možda milijun. 189 00:14:46,490 --> 00:14:47,770 Milijun?! - Da. 190 00:14:51,140 --> 00:14:52,090 Dobro je, hvala. 191 00:14:54,650 --> 00:14:59,359 To su neke kontraverze koje danas proizlaze iz analize troškova i koristi, 192 00:14:59,549 --> 00:15:05,130 posebno one koje uključuju pridjeljivanje dolarske vrijednosti svemu što ulazi u zbroj. 193 00:15:06,770 --> 00:15:09,840 Sada bih se želio okrenuti vašim prigovorima, 194 00:15:09,960 --> 00:15:14,560 vašim prigovorima, ne nužno na analizu troškova i koristi izričito, 195 00:15:14,740 --> 00:15:20,249 jer to je samo jedna verzija utilitarističke logike u današnjoj praksi, 196 00:15:21,720 --> 00:15:24,010 nego na teoriju u cjelini, 197 00:15:24,200 --> 00:15:28,220 na ideju da je ispravni postupak, 198 00:15:30,000 --> 00:15:32,630 pravedna osnova za politikičke mjere i zakon, 199 00:15:33,710 --> 00:15:36,190 maksimiziranje korisnosti. 200 00:15:39,750 --> 00:15:43,440 Koliko vas se ne slaže s utilitarističkim pristupom 201 00:15:44,330 --> 00:15:47,510 zakonu i općem dobru? 202 00:15:48,330 --> 00:15:49,890 Koliko vas se slaže s njim? 203 00:15:52,070 --> 00:15:54,970 Dakle više vas je koji se slažu nego onih koji se ne slažu. 204 00:15:55,200 --> 00:15:56,780 Pa da čujemo kritičare. 205 00:15:59,560 --> 00:16:03,059 Moj glavni problem s tim je da mi se čini da ne možete reći ... 206 00:16:03,549 --> 00:16:05,230 samo zato što je netko u manjini, 207 00:16:06,280 --> 00:16:11,063 da su njegove želje i potrebe manje vrijedne nego onih koji su u većini. 208 00:16:11,650 --> 00:16:13,939 Pretpostavljam da imam problem s idejom da je 209 00:16:14,102 --> 00:16:16,607 'najveće dobro za najveći broj' u redu, 210 00:16:16,697 --> 00:16:21,401 jer što je onda s ljudima kojih je manji broj, 211 00:16:21,500 --> 00:16:25,634 to onda nije fer prema njima jer nemaju pravo glasa o tome što oni žele. 212 00:16:25,840 --> 00:16:30,030 To je zanimljiv prigovor, vi brinete o učinku na manjinu? 213 00:16:30,940 --> 00:16:31,850 Da. 214 00:16:32,270 --> 00:16:33,380 Usput, kako se zovete? 215 00:16:33,500 --> 00:16:34,300 Anna. 216 00:16:35,299 --> 00:16:39,639 Tko ima odgovor na Anninu brigu za učinak na manjinu? 217 00:16:39,960 --> 00:16:41,360 Što kažete Anni? 218 00:16:41,450 --> 00:16:45,170 Onaje rekla da manjine vrijede manje. Ja mislim da to nije slučaj 219 00:16:45,260 --> 00:16:50,443 jer pojedinci u manjini vrijede sasvim jednako kao pojedinci u većini, 220 00:16:50,599 --> 00:16:54,580 samo je stvar u tome da brojevi nadilaze manjinu. 221 00:16:56,210 --> 00:16:58,269 U određenom trenutku morate donijeti odluku 222 00:16:58,969 --> 00:17:04,260 i žao mi je manjine, ali ponekad je to za opće, veće dobro. 223 00:17:04,450 --> 00:17:07,130 Za veće dobro. Anna, što vi kažete? Vaše ime? 224 00:17:07,650 --> 00:17:08,510 Youngda. 225 00:17:08,664 --> 00:17:10,174 Što kažete Youngdai? 226 00:17:10,429 --> 00:17:13,339 Youngda kaže, morate samo zbrojiti preferencije ljudi, 227 00:17:13,439 --> 00:17:16,738 a preferencije onih u manjini zaista se mjere. 228 00:17:17,309 --> 00:17:20,070 Možete li dati neki primjer za ono što vas brine 229 00:17:20,260 --> 00:17:26,820 kad kažete da ste zabrinuti da utilitarizam krši interes i uvažavanje manjine? 230 00:17:27,970 --> 00:17:29,730 Možete li dati neki primjer? 231 00:17:30,050 --> 00:17:33,593 Pa, u odnosu na svaki od slučajeva o kojima smo govorili, poput brodoloma, 232 00:17:35,179 --> 00:17:41,662 mislim da je dječak koji je pojeden ipak imao jednako pravo na život kao i drugi ljudi, 233 00:17:43,560 --> 00:17:48,966 a samo zato što je bio 'manjina' u tom slučaju, 234 00:17:49,100 --> 00:17:52,940 onaj koji je možda imao manje šanse da nastavi živjeti, 235 00:17:53,460 --> 00:17:57,662 to ne znači da drugi automatski imaju pravo da ga pojedu 236 00:17:58,450 --> 00:18:02,500 samo zato jer bi to većem broju ljudi pružilo šansu da preživi. 237 00:18:03,290 --> 00:18:09,570 Dakle, možda postoje određena prava koja imaju manjine, odnosno pojedinac, 238 00:18:09,980 --> 00:18:15,290 koja ne bi smjela biti razmjenjivana u ime korisnosti? 239 00:18:16,520 --> 00:18:17,640 Da, Anna? 240 00:18:18,210 --> 00:18:20,414 Ovo bi bio test za vas. 241 00:18:21,990 --> 00:18:27,843 U drevnom Rimu bacali su kršćane lavovima u koloseumu iz sporta. 242 00:18:29,510 --> 00:18:32,713 Ako razmislite o načinu utilitarističkog računanja - 243 00:18:33,890 --> 00:18:38,154 da, krščanin bačen lavu proživljava ogromni nepodnošljivi bol, 244 00:18:38,770 --> 00:18:41,720 ali pogledajte kolektivnu ekstazu Rimljana! 245 00:18:45,150 --> 00:18:46,427 Youngda. 246 00:18:50,580 --> 00:18:51,889 Pa, u to vrijeme ... 247 00:18:54,920 --> 00:19:00,820 U moderno vrijeme, uzimajući u obzir radost pruženu ljudima koji gledaju, 248 00:19:01,680 --> 00:19:10,890 mislim da niti jedan zakonodavac ne bi rekao da je patnja jednog čovjeka puno ... 249 00:19:12,090 --> 00:19:14,410 u usporedbi sa radošću koju donosi ... 250 00:19:14,680 --> 00:19:19,992 Ne, ali morate priznati da u slučaju da je dovoljan broj Rimljana bio izbezumljen od sreće 251 00:19:20,460 --> 00:19:26,211 to bi prevagnulo čak i najužasniju bol nekolicine kršćana bačenih lavovima. 252 00:19:28,600 --> 00:19:32,651 Dakle, zaista ovdje imamo dva različita prigovora utilitarizmu. 253 00:19:33,570 --> 00:19:41,830 Jedan se odnosi na primjereno poštovanje ljudskih prava odnosno prava manjina. 254 00:19:42,500 --> 00:19:52,350 A drugi se odnosi na cijelu ideju objedinjavanja korisnosti ili preferencija ili vrijednosti. 255 00:19:53,070 --> 00:19:59,120 Da li je moguće objediniti sve vrijednosti i prevesti ih u dolarsku vrijednost? 256 00:20:02,460 --> 00:20:13,079 1930.-ih bio je jedan psiholog koji je pokušao govoriti o drugom pitanju. 257 00:20:13,300 --> 00:20:17,730 Pokušao je dokazati ono što utilitarizam smatra istinom, 258 00:20:18,530 --> 00:20:24,700 da je zaista moguće prevesti sve robe, sve vrijednosti, 259 00:20:24,840 --> 00:20:26,300 sve do čega je ljudima stalo, 260 00:20:26,419 --> 00:20:28,692 u jedinstvenu uniformnu mjeru, 261 00:20:28,909 --> 00:20:34,290 a to je učinio tako da je proveo anketu među mladim primateljima socijalne pomoći. 262 00:20:34,390 --> 00:20:36,190 To je bilo 1930. -tih. 263 00:20:37,610 --> 00:20:41,449 Dao im je listu neugodnih doživljaja 264 00:20:42,000 --> 00:20:46,550 i pitao ih, 'Koliko bi trebali biti plaćeni da pristanete proživjeti ove stvari?' 265 00:20:47,021 --> 00:20:48,448 I vodio je bilješke. 266 00:20:49,530 --> 00:20:54,606 Na primjer, 'Koliko biste morali biti plaćeni da pristanete na vađenje prednjeg gornjeg zuba?' 267 00:20:56,840 --> 00:21:02,676 ili 'Koliko bi trebali biti plaćeni da pristanete da vam se odsiječe jedan mali nožni prst?' 268 00:21:05,030 --> 00:21:08,781 ili ' da jedete žive gliste od 20 cm' 269 00:21:10,510 --> 00:21:15,050 ili 'da ostatak života proživite na farmi u Kansasu' 270 00:21:19,430 --> 00:21:22,790 ili 'da golim rukama zadavite mačku lutalicu'? 271 00:21:24,400 --> 00:21:29,565 Što mislite, koja je bila najskuplja stavka na toj listi? 272 00:21:32,410 --> 00:21:33,520 Kansas? 273 00:21:39,750 --> 00:21:41,825 U pravu ste, bio je to Kansas. 274 00:21:44,840 --> 00:21:50,578 Za Kansas ljudi su rekli da bi morali biti plaćeni 300.000 dolara. 275 00:21:57,340 --> 00:22:02,127 Što mislite koja je bila sljedeća najskuplja stavka? 276 00:22:02,900 --> 00:22:03,970 Nije mačka, 277 00:22:05,710 --> 00:22:06,610 nije zub, 278 00:22:07,670 --> 00:22:09,480 nije nožni prst, 279 00:22:10,900 --> 00:22:12,061 glista! 280 00:22:16,290 --> 00:22:21,485 Ljudi su rekli da bi im trebali platiti sto tisuća dolara da pojedu glistu! 281 00:22:23,000 --> 00:22:25,990 Što mislite da je bila najmanje skupa stavka? 282 00:22:27,730 --> 00:22:28,770 Nije mačka, 283 00:22:30,010 --> 00:22:30,910 zub! 284 00:22:31,300 --> 00:22:37,100 U vrijeme depresije ljudi su bili voljni da im se izvadi zub za samo 4.500 dolara. 285 00:22:40,150 --> 00:22:46,200 Evo što je Thorndike zaključio iz svog istraživanja: 286 00:22:47,750 --> 00:22:53,630 svaka želja ili užitak koji postoje, postoje u nekoj količini i stoga su mjerljivi. 287 00:22:54,600 --> 00:22:57,939 Život psa ili mačke ili kokoši 288 00:22:58,109 --> 00:23:03,369 sastoji se od apetita, žudnji, želja i zadovoljenja. 289 00:23:04,290 --> 00:23:10,331 Isto vrijedi za život ljudskih bića, iako su apetiti i želje kompliciraniji. 290 00:23:12,450 --> 00:23:15,022 Ali što je s Thorndikeovom studijom? 291 00:23:15,570 --> 00:23:18,970 Podržava li ona Benthamovu ideju 292 00:23:20,210 --> 00:23:23,170 da sva dobra, sve vrijednosti 293 00:23:23,360 --> 00:23:27,809 mogu biti obuhvaćeni jednom uniformnom mjerom vrijednosti 294 00:23:28,190 --> 00:23:32,139 ili besmislenost ovih stavki na listi 295 00:23:33,459 --> 00:23:36,390 sugerira suprotni zaključak 296 00:23:37,220 --> 00:23:42,736 da možda - bez obzira govorimo li o životu ili Kanzasu ili glisti - 297 00:23:44,180 --> 00:23:48,485 možda stvari koje su nam vrijedne i važne 298 00:23:49,180 --> 00:23:53,670 ne mogu biti obuhvaćene jednom uniformnom mjerom vrijednosti. 299 00:23:54,280 --> 00:24:00,929 A ako ne mogu, koje su posljedice za utilitarističku teoriju morala? 300 00:24:01,750 --> 00:24:04,797 To je pitanje kojim ćemo nastaviti sljedeći puta. 301 00:24:13,179 --> 00:24:16,370 Uzmimo sada drugi dio glasova. 302 00:24:17,370 --> 00:24:22,159 Koji je doživljaj najvećeg užitka? 303 00:24:23,040 --> 00:24:25,927 Koliko vas kaže Shakespeare? 304 00:24:26,137 --> 00:24:28,467 KAKO MJERITI UGODU 305 00:24:31,720 --> 00:24:35,457 Koliko vas kaže Fear Factor (Faktor straha, serija)? 306 00:24:38,120 --> 00:24:40,546 Ne, nemoguće da ste ozbiljni, zaista? 307 00:24:47,820 --> 00:24:51,890 Prošli puta počeli smo razmatrati neke prigovore 308 00:24:53,510 --> 00:24:57,720 na verziju utilitarizma Jeremy Benthama. 309 00:25:01,790 --> 00:25:05,890 U raspravi koju smo vodili ljudi su iznijeli dva prigovora. 310 00:25:08,380 --> 00:25:12,520 Prvi prigovor odnosno tvrdnja bila je 311 00:25:12,710 --> 00:25:18,890 da utilitarizam baveći se 'najvećim dobrom za najveći broj' 312 00:25:19,450 --> 00:25:23,733 propušta primjereno poštovati prava pojedinca. 313 00:25:24,970 --> 00:25:30,780 Danas imamo debate o mučenju i terorizmu. 314 00:25:33,210 --> 00:25:38,739 Pretpostavimo da je osumnjičeni terorist uhićen 10. rujna 315 00:25:40,980 --> 00:25:45,969 i imate razloga vjerovati da je osumnjičeni 316 00:25:46,320 --> 00:25:49,640 imao ključne informacije o predstojećem terorističkom napadu 317 00:25:49,750 --> 00:25:51,580 u kojem će poginuti preko 3000 ljudi. 318 00:25:52,200 --> 00:25:54,799 I ne može izvući informacije iz njega? 319 00:25:55,280 --> 00:26:00,118 Da li bi bilo pravedno mučiti osumnjičenika 320 00:26:01,070 --> 00:26:02,717 kako bi se dobile informacije? 321 00:26:03,060 --> 00:26:03,930 Ili 322 00:26:05,550 --> 00:26:11,880 kažete - Ne, postoji kategorična moralna obaveza poštovanja prava pojedinca 323 00:26:14,290 --> 00:26:17,439 Na neki način vratili smo se na pitanje s kojim smo počeli, 324 00:26:17,640 --> 00:26:21,176 o tramvaju i transplantaciji organa. To je prvo sporno pitanje. 325 00:26:23,910 --> 00:26:28,766 I sjećate se da smo razmatrali neke primjere analize troškova i koristi. 326 00:26:29,250 --> 00:26:33,116 Ali mnogo ljudi nije bilo zadovoljno s analizom troškova i koristi 327 00:26:33,870 --> 00:26:37,625 kad se radilo o pridjeljivanju dolarske vrijednosti ljudskom životu. 328 00:26:39,970 --> 00:26:43,013 I to nas je dovelo do drugog prigovora 329 00:26:44,500 --> 00:26:47,961 koji je doveo u pitanje mogućnost prevođenja svih vrijednosti 330 00:26:48,510 --> 00:26:51,549 na jednu uniformnu mjeru vrijednosti. 331 00:26:52,610 --> 00:26:56,386 Drugim riječima, pitanje je jesu li sve vrijednosti sumjerljive. 332 00:26:57,580 --> 00:27:05,344 Da vam dam još jedan primjer, ustvari, istinitu priču iz osobnog iskustva, 333 00:27:07,240 --> 00:27:13,380 koja barem postavlja pitanje mogu li se sve vrijednosti prevesti bez gubitka 334 00:27:13,610 --> 00:27:15,911 u utilitaritarističke termine. 335 00:27:19,759 --> 00:27:21,609 Prije nekoliko godina 336 00:27:22,110 --> 00:27:25,170 kad sam bio na diplomskom studiju na Oxfordu u Engleskoj, 337 00:27:25,270 --> 00:27:29,400 i postojali su muški i ženski fakulteti, još nisu bili miješani. 338 00:27:29,800 --> 00:27:34,658 I ženski fakulteti imali su pravila zabrane noćnih posjeta za muške goste. 339 00:27:37,470 --> 00:27:42,843 U 1970.-ima ta su se pravila rijetko provodila i često kršila 340 00:27:44,030 --> 00:27:45,870 ili su mi tako rekli. 341 00:27:51,600 --> 00:27:55,939 Kasnih sedamdesetih, kad sam ja bio tamo, porastao je pritisak za ublažavanje tih pravila 342 00:27:55,969 --> 00:28:01,060 i to je postalo predmet diskusije na St. Anne College, 343 00:28:01,100 --> 00:28:03,411 koji je bio jedan od tih fakulteta samo za žene. 344 00:28:03,840 --> 00:28:07,480 Starije žene na fakultetu bile su tradicionalisti, 345 00:28:07,550 --> 00:28:11,640 protivile su se promjeni na konvencionalnim moralnim osnovama. 346 00:28:12,820 --> 00:28:15,543 No, vremena su se promijenila i bilo im je neugodno 347 00:28:16,980 --> 00:28:19,870 iznijeti pravu osnovu svojih prigovora. 348 00:28:20,000 --> 00:28:24,069 I zato su svoje argumente prevele u utilitarističke termine. 349 00:28:25,640 --> 00:28:30,326 Ako muškarci ostaju preko noći, tvrdile su, povećat će se troškovi fakulteta. 350 00:28:31,460 --> 00:28:33,270 Kako, možda se pitate? 351 00:28:33,490 --> 00:28:37,119 Pa, poželjet će se okupati i potrošit će našu toplu vodu, rekle su. 352 00:28:38,879 --> 00:28:43,198 Nadalje, tvrdile su, morat ćemo češće mijenjati madrace. 353 00:28:46,780 --> 00:28:51,325 Reformatori su udovoljili tim zahtjevima usvajajući sljedeće kompromise: 354 00:28:52,120 --> 00:28:57,300 svaka žena može imati do tri noćna gosta tjedno 355 00:29:01,160 --> 00:29:04,827 - nisu rekli da li to mora biti ista osoba ili tri različite - 356 00:29:05,410 --> 00:29:08,716 uz uvjet, i u tome je bio kompromis, uz uvjet 357 00:29:09,240 --> 00:29:13,731 da gost plaća 50 pensa da namiri trošak fakulteta. 358 00:29:15,340 --> 00:29:20,345 Sljedeći dan pojavio se naslov u nacionalnim novinama: 359 00:29:20,840 --> 00:29:24,880 'Djevojke na St Anne, 50 pensa za noć'! 360 00:29:29,090 --> 00:29:35,130 Još jedna ilustracija teškoće prevođenja svih vrijednosti, 361 00:29:36,150 --> 00:29:38,585 - u ovom slučaju određene ideje vrline - 362 00:29:38,930 --> 00:29:41,054 u utilitarističke termine. 363 00:29:42,900 --> 00:29:49,970 Dakle, ovo sve je za ilustraciju drugog prigovora utilitarizmu, 364 00:29:50,050 --> 00:29:53,899 barem onog dijela tog prigovora koji dovodi u pitanje 365 00:29:54,780 --> 00:29:56,620 ispravnost utilitarizma u stajalištu 366 00:29:58,570 --> 00:30:00,759 da možemo prihvatiti uniformnost vrijednosti, sumjerljivost svih vrijednosti, 367 00:30:02,420 --> 00:30:08,230 i prevesti sva moralna razmatranja u dolare odnosno novac. 368 00:30:12,220 --> 00:30:14,510 No postoji i drugi aspekt brige u vezi agregiranja vrijednosti i preferencija. 369 00:30:19,690 --> 00:30:21,990 Zašto bismo trebali odvagnuti sve preferencije koje ljudi imaju 370 00:30:27,390 --> 00:30:32,650 bez procjenjivanja jesu li te preferencije dobre ili loše? 371 00:30:32,650 --> 00:30:35,120 Ne bismo li trebali razlikovati više i niže užitke? 372 00:30:41,760 --> 00:30:44,250 Dio sklonosti da ne radimo kvalitatine razlike između vrijednosti preferencija ljudi, 373 00:30:49,380 --> 00:30:50,820 djelomično smo tome skloni zato jer je to neosuđujuće i egalitaristički. 374 00:30:55,250 --> 00:30:58,110 Benthamski utilitarista kaže: 375 00:30:58,110 --> 00:31:01,199 Svačije preferencije se računaju bez obzira na to što ljudi žele, 376 00:31:04,890 --> 00:31:08,580 bez obzira na to što veseli različite ljude. 377 00:31:08,580 --> 00:31:09,530 Za Benthama, važno je jedino, sjetit ćete se, 378 00:31:09,530 --> 00:31:11,250 intenzitet ili trajanje zadovoljstva ili boli. 379 00:31:18,270 --> 00:31:24,040 Takozvana viša zadovoljstva ili plemenite vrline su jednostavno one, prema Benthamu, 380 00:31:24,040 --> 00:31:25,420 koje proizvode jače, duže zadovoljstvo. 381 00:31:29,380 --> 00:31:32,790 Čuvena fraza za iskazivanje te ideje je 382 00:31:32,790 --> 00:31:35,770 'količina zadovoljstva je jednaka, radi li se o pribadači ili poeziji'. 383 00:31:39,519 --> 00:31:41,789 Što je bila 'pribadača'? 384 00:31:41,789 --> 00:31:46,929 Bila je to neka vrsta dječje igre, 'igra pribadača dobra je koliko i poezija', 385 00:31:46,929 --> 00:31:48,850 rekao je Bentham. 386 00:31:48,850 --> 00:31:50,509 A, mislim da ispod te ideje leži tvrdnja, slutnja, 387 00:31:54,090 --> 00:31:55,870 da je oholo prosuđivati čija su zadovoljstva intrinzično viša ili vrednija ili bolja. 388 00:32:03,850 --> 00:32:07,010 I ima nešto privlačno u tom odbijanju da se prosuđuje, 389 00:32:07,010 --> 00:32:09,770 na koncu neki ljudi vole Mozarta, drugi Madonnu, 390 00:32:12,520 --> 00:32:15,090 neki ljudi vole balet, drugi kuglanje. 391 00:32:17,360 --> 00:32:19,439 Tko kaže, mogao bi tvrditi Bentham, 392 00:32:19,440 --> 00:32:23,140 tko će reći koja od zadovoljstava, 393 00:32:23,140 --> 00:32:24,260 čija zadovoljstva su viša, vrednija, plemenitija od drugih? 394 00:32:31,570 --> 00:32:35,980 Ali, je lli to ispravno? 395 00:32:35,980 --> 00:32:40,310 To odbijanje da radimo kvalitativne razlike. 396 00:32:40,310 --> 00:32:42,179 Možemo li se mi, svi zajedno, odreći ideje 397 00:32:45,170 --> 00:32:49,010 da su određene stvari koje nam čine zadovoljstvo bolje ili vrednije od drugih? 398 00:32:53,890 --> 00:32:58,640 Sjetite se Rimljana u koloseumu, jedna stvar koja je u tome ljude smetala 399 00:32:58,960 --> 00:33:01,170 bilo je da su se time izgleda kršila prava kršćana. 400 00:33:04,490 --> 00:33:07,250 Druga zamjerka onome što se tu događa 401 00:33:07,250 --> 00:33:10,720 je uživanje Rimljana u tom krvavom spektaklu. 402 00:33:13,480 --> 00:33:15,850 Treba li to zadovoljstvo, koje je sramotno i na neki način korumpirano, 403 00:33:19,130 --> 00:33:22,730 ponižavajuće zadovoljstvo. 404 00:33:22,730 --> 00:33:26,960 Treba li to uopće biti valorizirano odnosno vagano pri odlučivanju 405 00:33:26,960 --> 00:33:33,770 o tome što je opće dobro? 406 00:33:33,770 --> 00:33:38,760 Dakle, ovo su prigovori na Benthamov uitlitarizam, 407 00:33:38,760 --> 00:33:42,800 a sada se okrećemo nekome tko je pokušao odgovoriti na te prigovore, 408 00:33:45,890 --> 00:33:47,820 mlađi utilitarista, John Stuart Mill. 409 00:33:50,120 --> 00:33:52,780 Ono što sada trebamo ispitati 410 00:33:54,510 --> 00:33:58,809 je da li John Stuart Mill ima uvjerljivi odgovor na ove prigovore utilitarizmu. 411 00:34:05,090 --> 00:34:06,750 John Stuart Mill je rođen 1806., njegov otac, James Mill bio je Benthamov učenik 412 00:34:14,079 --> 00:34:17,389 i James Mill se odlučio svom sinu, Johnu Stuartu Millu, dati primjereno obrazovanje. 413 00:34:20,329 --> 00:34:22,429 On je bio čudo od djeteta, John Stuart Mill, 414 00:34:23,569 --> 00:34:27,859 znao je grčki s tri godine, latinski s osam, 415 00:34:27,859 --> 00:34:29,139 a u dobi od 10 godina napisao je Povijest rimskog prava. 416 00:34:33,659 --> 00:34:35,649 U dobi od 20 godina doživio je živčani slom, 417 00:34:35,649 --> 00:34:39,129 to ga je bacilo u depresiju pet godina, 418 00:34:39,129 --> 00:34:43,549 ali sa 25, ono što mu je pomoglo da se izvuče iz te depresije 419 00:34:46,800 --> 00:34:49,949 je susret s Harriet Taylor. 420 00:34:49,949 --> 00:34:52,659 Ona Mill su se oženili i živjeli sretno do kraja života 421 00:34:52,659 --> 00:34:54,849 i bilo je to pod njenim utjecajem 422 00:34:56,659 --> 00:34:59,859 da je John Stuart Mill pokušao humanizirati utilitarizam. 423 00:35:01,720 --> 00:35:05,279 Ono što je Mill pokušao je ustanoviti 424 00:35:05,279 --> 00:35:07,710 da li utilitarističko računanje može biti prošireno i modificirano 425 00:35:11,200 --> 00:35:13,759 kako bi zadovoljilo humanitarne dvojbe poput: 426 00:35:17,429 --> 00:35:20,390 brige za poštovanje ljudskih prava 427 00:35:20,390 --> 00:35:24,598 i također razlike između viših i nižih zadovoljstava. 428 00:35:26,439 --> 00:35:30,368 1859. Mill je napisao čuvenu knjigu 'O slobodi', 429 00:35:30,369 --> 00:35:35,399 čija je glavna tema važnost obrane prava pojedinca i prava manjina, 430 00:35:36,380 --> 00:35:38,329 a 1861. pred kraj života 431 00:35:40,339 --> 00:35:43,130 napisao jee knjigu koju čitamo u okviru ovog kolegija 432 00:35:43,130 --> 00:35:45,099 'Utilitarizam'. 433 00:35:45,099 --> 00:35:46,599 U njoj pojašnjava da je korisnost jedino mjerilo moralnosti, po njemu. 434 00:35:50,769 --> 00:35:52,549 Dakle, on ne dovodi u pitanje Benthamovu premisu, 435 00:35:53,949 --> 00:35:55,279 on je potvrđuje. 436 00:35:55,279 --> 00:35:58,829 On vrlo izričito kaže, 'Jedini dokaz da je moguće prozvesti da je sve poželjno, 437 00:35:58,829 --> 00:36:04,659 je taj da ljudi to zaista žele.' 438 00:36:05,929 --> 00:36:11,679 Dakle, on ostaje kod ideje da su de facto empirijske želje jedini temelj za moralnu prosudbu. 439 00:36:15,619 --> 00:36:17,549 Ali onda - strana 8 također u poglavlju 2 - 440 00:36:18,979 --> 00:36:24,879 on tvrdi da je utilitaristi moguće razlikovati viša od nižih zadovoljstava. 441 00:36:26,320 --> 00:36:28,970 Vi koji ste već čitali Milla, 442 00:36:32,079 --> 00:36:33,329 kako je po njemu moguće utvrditi tu razliku? 443 00:36:36,559 --> 00:36:40,079 Kako utilitarista može kvalitativno razlikovati viša zadovoljstva od nižih, 444 00:36:42,819 --> 00:36:43,540 sramotnih, nevrijednih? 445 00:36:48,859 --> 00:36:50,519 Ako ste probali oba, prirodno ćete dati prednost onom višem, uvijek. 446 00:36:55,309 --> 00:36:59,819 Sjajno, to je točno. Kako se zovete? 447 00:36:59,819 --> 00:37:01,759 John. 448 00:37:01,759 --> 00:37:05,019 Pa, kako ističe John, Mills kaže, 449 00:37:05,019 --> 00:37:07,868 'Evo testa, budući da ne možemo iskoračiti izvan stvarnih želja i preferenci, 450 00:37:10,490 --> 00:37:11,649 to bi narušilo utilitarističke pemise, 451 00:37:13,670 --> 00:37:16,819 jedini test 452 00:37:16,819 --> 00:37:17,600 da li je zadovoljstvo više ili niže razine, 453 00:37:19,769 --> 00:37:26,468 je da li bi mu netko tko je doživio oba, dao prednost. 454 00:37:28,109 --> 00:37:29,369 A ovdje, u poglavlju 2, vidimo odlomak u kojem Mill govori ono što je John opisao. 455 00:37:37,199 --> 00:37:42,680 'Od dva zadovoljstva, ako postoji jedno kojem bi svi, ili skoro svi, koji su doživjeli oba, 456 00:37:42,680 --> 00:37:46,219 dali odlučujuću prednost, 457 00:37:46,219 --> 00:37:51,859 bez obzira na bilo kakav osjećaj moralne obaveze da ga preferiraju, 458 00:37:51,859 --> 00:37:53,390 drugim riječima bez ikakvog vanjskog, nezavisnog mjerila, 459 00:37:53,390 --> 00:37:57,529 onda je to poželjnije zadovoljstvo.' 460 00:37:57,529 --> 00:37:59,829 Što ljudi misle o tom argumentu? 461 00:38:01,549 --> 00:38:03,489 Da li je dobar? 462 00:38:03,489 --> 00:38:06,380 Koliko vas misli da je uspješan 463 00:38:06,380 --> 00:38:11,489 za diskusiju o razlikovanju između viših i nižih zadovoljstava u terminima utilitarizma? 464 00:38:11,489 --> 00:38:12,390 Koliko vas misli da nije dobar? 465 00:38:17,789 --> 00:38:20,829 Želim čuti vaše razloge, 466 00:38:20,829 --> 00:38:22,249 ali prije no što izložimo razloge, napravit ćemo jedan pokus 467 00:38:26,329 --> 00:38:28,719 u vezi Millsove tvrdnje. 468 00:38:31,569 --> 00:38:35,199 Da bismo mogli napraviti taj pokus 469 00:38:35,199 --> 00:38:39,859 pogledat ćemo tri kratka isječka popularne zabave. 470 00:38:44,889 --> 00:38:48,170 Prvi je Hamletov monolog 471 00:38:48,170 --> 00:38:52,939 iza kojeg slijede dva druga doživljaja. 472 00:38:55,420 --> 00:38:58,259 Da vidimo što vi mislite. 473 00:38:58,259 --> 00:39:02,249 'Kakvo je remek-djelo čovjek! 474 00:39:02,249 --> 00:39:05,509 Kako plemenit umom! 475 00:39:05,509 --> 00:39:07,579 Kako neograničen u sposobnostima! 476 00:39:07,579 --> 00:39:11,439 U liku i pokretu kako je izražajan i divan! 477 00:39:11,439 --> 00:39:14,949 U djelima kako sličan anđelu, u mislima kako sličan Bogu! 478 00:39:14,949 --> 00:39:16,430 Ljepota svijeta, uzor svim životinjama! 479 00:39:18,349 --> 00:39:21,259 Pa ipak, što je za mene ta kvintesencija prašine? 480 00:39:24,689 --> 00:39:31,689 Čovjek mene ne očarava.' 481 00:39:43,309 --> 00:39:47,749 'Zamislite svijet u kojem vaši najveći strahovi postaju stvarnost. 482 00:39:47,749 --> 00:39:52,609 Svaki show, šest natjecatelja iz cijele zemlje bore se međusobno u tri ekstremne egzibicije. 483 00:39:52,609 --> 00:39:59,609 Te egzibicije smišljene su kao izazovi za natjecatelje, fizički i mentalno. 484 00:40:00,419 --> 00:40:02,288 Šest natjecatelja, tri egzibicije, jedan pobjednik. 485 00:40:02,289 --> 00:40:09,289 Fear Factor. 486 00:40:16,449 --> 00:40:22,919 Simpsoni. 487 00:40:22,919 --> 00:40:25,240 Flanders, otkad ti voliš kul stvari? 488 00:40:25,240 --> 00:40:28,729 Pa, nije mi do brzine, ali obožavam tu zaštitnu opremu, kacige, zaštitne šipke, zastavice. 489 00:40:28,729 --> 00:40:35,499 Ja volim friški zrak i gledati jadnike na terenu. 490 00:40:35,499 --> 00:40:41,319 Dang Cletus, zašto si morao parkirati pokraj mojih roditelja? 491 00:40:41,320 --> 00:40:43,029 Ne draga, to su i moji roditelji. 492 00:40:55,759 --> 00:41:00,629 Ne moram ni pitati koji vam se najviše sviđao. 493 00:41:00,629 --> 00:41:05,109 Simpsoni? Kome su se najviše sviđali Simpsoni? 494 00:41:05,109 --> 00:41:10,140 Kome Shakespeare? 495 00:41:10,140 --> 00:41:12,710 A Fear Factor? 496 00:41:12,710 --> 00:41:15,959 Koliko vas više voli Fear Factor? 497 00:41:15,959 --> 00:41:22,368 Stvarno? 498 00:41:22,369 --> 00:41:24,079 Nadmoćnoj većini sviđaju se Simpsoni 499 00:41:25,769 --> 00:41:29,229 više od Shakespearea. 500 00:41:29,229 --> 00:41:31,598 U redu, uzmimo sad drugi dio glasova. 501 00:41:33,749 --> 00:41:35,799 Koji doživljaj odnosno užitak je najviši? 502 00:41:39,409 --> 00:41:41,729 Koliko ih kaže Shakespeare? 503 00:41:47,789 --> 00:41:49,960 Koliko ih kaže Fear Factor? 504 00:41:54,189 --> 00:41:59,069 Ne, vi se šalite. Ozbiljno? 505 00:42:01,039 --> 00:42:02,709 Samo naprijed, recite. 506 00:42:02,709 --> 00:42:03,439 Ja mislim da je to najzabavnije. 507 00:42:04,709 --> 00:42:09,428 Znam, ali koji doživljaj je za vas najvredniji, najplemenitiji. 508 00:42:09,429 --> 00:42:10,920 Znam da vam je to najzabavnije. 509 00:42:10,920 --> 00:42:15,920 Ako je nešto dobro samo zato što je ugodno, zašto je važno da imate neku apstraktnu ideju 510 00:42:15,920 --> 00:42:17,209 je li to dobro po mjerilima nekog drugog? 511 00:42:21,729 --> 00:42:25,038 Znači vi stajete na stranu Benthama: 512 00:42:25,039 --> 00:42:26,429 tko je taj koji će prosuditi 513 00:42:26,429 --> 00:42:29,279 i zašto bi morali prosuđivati? 514 00:42:29,279 --> 00:42:33,880 Umjesto da samo registriramo i pribrojimo de facto preferencije. U redu, pošteno. 515 00:42:33,880 --> 00:42:35,349 Kako se vi zovete? 516 00:42:35,349 --> 00:42:37,329 Nate? U redu, pošteno. 517 00:42:38,219 --> 00:42:40,919 Koliko vas misli da su Simpsoni ustvari, osim što vam se sviđaju, 518 00:42:40,919 --> 00:42:46,259 da su ustvari doživljaj više razine od Shakespearea? 519 00:42:47,420 --> 00:42:49,309 Da vidiomo ponovo tko je glasao za Shakespearea. 520 00:42:49,309 --> 00:42:52,869 Koliko vas misli da je Shakespeare viši? 521 00:42:55,540 --> 00:42:58,999 Idealno bi bilo da čujem nekoga ... ima li koga tko misli da je Shakespeare najviši, 522 00:43:02,109 --> 00:43:02,989 ali radije gleda Simpsone? 523 00:43:08,739 --> 00:43:14,160 Samo sjediti i gledati Simpsone je zabavno jer se šale i nasmijavaju nas, 524 00:43:14,160 --> 00:43:17,839 ali netko nam mora reći da je Shakespeare veliki pisac, 525 00:43:17,839 --> 00:43:20,630 moramo naučiti kako ga čitati i kako ga razumijeti, 526 00:43:20,630 --> 00:43:23,150 moramo naučiti kako gledati Rembrandta, kako analizirati sliku. 527 00:43:23,150 --> 00:43:25,859 Kako se vi zovete? 528 00:43:25,859 --> 00:43:27,840 Aneesha. 529 00:43:27,840 --> 00:43:31,259 Aneesha, kad kažete da vam je netko rekao da je Shakespeare bolji, 530 00:43:31,259 --> 00:43:37,299 da li to prihvaćate slijepom vjerom? 531 00:43:37,299 --> 00:43:41,529 Glasali ste da je Shakespeare bolji samo zato jer vam to govori kultura ili učitelji? 532 00:43:41,529 --> 00:43:44,049 Ili se zaista sami slažete s tim? 533 00:43:44,049 --> 00:43:48,319 U odnosu na Shakesperea, ne, ali ranije ste dali primjer Rembrandta 534 00:43:49,740 --> 00:43:54,479 i mislim da bih više uživala čitajući strip 535 00:43:54,479 --> 00:43:58,348 nego što bih uživala analizirajući Rembrandta zato jer mi je netko rekao da je veliki slikar. 536 00:43:58,349 --> 00:44:01,699 Dakle vi sugerirate da bi nešto od toga bilo kulturna konvencija i pritisak. 537 00:44:01,699 --> 00:44:05,319 Rečeno nam je koje knjige, koja umjetnička djela su velika. 538 00:44:05,319 --> 00:44:12,319 Tko još? 539 00:44:15,309 --> 00:44:19,640 Iako sam više uživao gledajući Simpsone, ovaj tren na predavanju, 540 00:44:19,640 --> 00:44:23,049 kad bih morao ostatak svog života provesti s jednim od tri prikazana videa, 541 00:44:26,869 --> 00:44:29,119 ne bih želio provesti taj ostatak svog života gledajući zadnja dva videa. 542 00:44:33,800 --> 00:44:36,650 Mislim da bih više užitka našao u tome da budem u stanju 543 00:44:38,309 --> 00:44:39,269 razvijati se u vlastitom umu 544 00:44:39,269 --> 00:44:40,488 baveći se dubljim užicima, dubljim mislima. 545 00:44:44,869 --> 00:44:48,630 Recite mi vaše ime. 546 00:44:48,630 --> 00:44:49,630 Joe. 547 00:44:49,630 --> 00:44:52,559 Joe, dakle kad morali ostatak života provesti 548 00:44:52,559 --> 00:44:55,409 na farmi u Kansasu samo sa Shakespearom ili zbirkom epizoda Simpsona, 549 00:45:02,079 --> 00:45:04,119 vi bi radije odabrali Shakespearea? 550 00:45:06,599 --> 00:45:09,849 Što iz toga zaključujete o testu John Stuart Millsa? 551 00:45:12,149 --> 00:45:15,078 Da test višeg zadovoljstva pokazuje 552 00:45:15,079 --> 00:45:16,359 da li ljudi koji su doživjeli oba preferiraju dotično. 553 00:45:21,509 --> 00:45:23,880 Mogu li ukratko citirati drugi primjer? 554 00:45:23,880 --> 00:45:25,130 Na neurobiologiji prošle godine pričali su nam o pokusu sa štakorom 555 00:45:28,769 --> 00:45:31,209 gdje je štakor mogao stimulirati određeni centar u svom mozgu 556 00:45:31,209 --> 00:45:35,879 tako da doživljava intenzivno zadooljstvo. 557 00:45:35,879 --> 00:45:38,368 Štakor nije jeo ni pio sve dok nije umro. 558 00:45:38,369 --> 00:45:42,179 Štakor je očito doživljavao intenzivno zadovoljstvo. 559 00:45:42,179 --> 00:45:46,269 Pa sada, da me ovaj čas upitate da li bih radije doživio intenzivno zadovoljstvo 560 00:45:47,140 --> 00:45:52,690 ili cijeli život ispunjen višim zadovoljstvom, 561 00:45:52,690 --> 00:45:55,799 - intenzivno zadovoljstvo pritom smatram nižim zadovoljstvom - 562 00:45:55,799 --> 00:46:01,969 rado bih ovaj čas uživao u intenzivnom zadovoljstvu - da, sigurno bi - 563 00:46:01,969 --> 00:46:03,159 ali tokom cijelog života, mislim da bi se većina ovdje složila 564 00:46:06,899 --> 00:46:11,630 da bi radije bili ljudi s višim zadovoljstvom, nego taj štakor s intenzivnim zadovoljstvom 565 00:46:11,630 --> 00:46:13,269 u vrlo kratkom vremenskom periodu. 566 00:46:15,870 --> 00:46:18,959 A odgovarajući na vaše pitanje, to dokazuje da ... 567 00:46:18,959 --> 00:46:21,348 neću reći dokazuje, 568 00:46:21,349 --> 00:46:24,999 mislim da je zaključak da Millsova teorija da ako se pita ljude što bi više voljeli, 569 00:46:31,439 --> 00:46:33,118 većina će odgovoriti da bi radije doživljavali više zadovoljstvo. 570 00:46:33,119 --> 00:46:34,689 Dakle, vi mislite da to podržava ... mislite da je Mills ovdje u pravu? 571 00:46:39,499 --> 00:46:40,738 Da, mislim. 572 00:46:40,739 --> 00:46:42,629 Ima li koga tko se ne slaže s Joeom, 573 00:46:42,629 --> 00:46:46,839 tko misli da naš eksperiment opovrgava Millsov test? 574 00:46:51,099 --> 00:46:53,239 Pokazuje da to nije adekvatan način, 575 00:46:53,239 --> 00:46:57,689 da ne možete raspoznati viša zadovoljstva u okvirima utilitarizma. 576 00:47:05,879 --> 00:47:09,509 Ako je uistinu dobro što god ljudi preferiraju, 577 00:47:09,509 --> 00:47:11,519 onda je to uistinu relativno i ne postoji objektivna definicija. 578 00:47:11,519 --> 00:47:14,888 U nekim društvima ljudi će preferirati Simpsone. 579 00:47:15,849 --> 00:47:21,380 Svatko može uživati u Simpsonima, 580 00:47:21,380 --> 00:47:25,660 ali mislim da je nužna edukacija da se uživa u Shakespeareu. 581 00:47:25,660 --> 00:47:27,319 Vi kažete da je potrebna edukacija za uživanje u višim stvarima. 582 00:47:27,319 --> 00:47:29,719 Millsov stav je da viša zadovoljstva zaista zahtijevaju kultivaciju i edukaciju. 583 00:47:35,090 --> 00:47:37,799 On to ne osporava. 584 00:47:38,650 --> 00:47:41,660 Ali jednom kad su kultivirani i educirani ljudi će uvidjeti, 585 00:47:41,660 --> 00:47:44,029 ne samo da će uvidjeti razliku između viših i nižih zadovoljstava, 586 00:47:49,009 --> 00:47:51,539 nego će zapravo preferirati viša pred nižima. 587 00:47:55,849 --> 00:47:59,519 Naći ćete taj čuveni citat John Stuart Millsa: 588 00:47:59,519 --> 00:48:00,808 'Bolje je biti nezadovoljno ljudsko biće, nego zadovoljna svinja.' 589 00:48:03,869 --> 00:48:06,109 Bolje nezadovoljni Sokrat, nego zadovoljna budala. 590 00:48:10,539 --> 00:48:12,229 A ako budala i svinja različito misle, to je zato jer znaju samo svoju stranu pitanja.' 591 00:48:20,700 --> 00:48:22,339 Dakle, tu imate pokušaj razlikovanja viših od nižih zadovoljstava, 592 00:48:28,719 --> 00:48:33,169 odnosno između posjeta muzeju i gledanja televizije uz bocu piva kod kuće. 593 00:48:35,489 --> 00:48:37,950 Mill dopušta da ponekad možda podliježemo iskušenju 594 00:48:37,950 --> 00:48:40,839 da radimo ovo zadnje, budemo TV ovisnici, 595 00:48:46,309 --> 00:48:47,779 ali čak i kad to radimo iz nemara i lijenosti, i 596 00:48:50,680 --> 00:48:52,200 mi znamo da zadovoljstvo koje osjećamo zureći u Rembrandta u muzeju 597 00:48:52,200 --> 00:48:54,029 ustvari je više 598 00:49:00,219 --> 00:49:03,190 zato jer smo doživjeli oba. 599 00:49:03,190 --> 00:49:05,699 A to i jeste više zadovoljstvo, zurenje u Rembrandte, 600 00:49:06,940 --> 00:49:11,499 zato jer zaokuplja naše više ljudske sposobnosti. 601 00:49:11,499 --> 00:49:13,848 Što je s Millsovim pokušajem da odgovori na prigovor o pravima pojedinca? 602 00:49:18,890 --> 00:49:21,859 Na neki način on koristi istu vrstu argumenta. 603 00:49:21,859 --> 00:49:25,319 A to je predstavljeno u poglavlju 5. 604 00:49:27,859 --> 00:49:33,369 On kaže: 'Iako osporavam pretenzije bilo koje teorije koja postavlja 605 00:49:33,369 --> 00:49:34,889 imaginarni standard pravednosti neutemeljen na korisnosti. 606 00:49:39,719 --> 00:49:41,389 Ali ipak, smatra da je pravednost utemeljena na korisnosti, 607 00:49:41,389 --> 00:49:43,429 glavni dio i neusporedivo najsvetiji i obvezujući dio svake moralnosti ...' 608 00:49:54,599 --> 00:49:57,249 Dakle, pravda jeste viša, individualna prava imaju prednost, 609 00:50:00,049 --> 00:50:01,899 ali ne iz razloga koji se razilaze sa utilitarističkim postavkama. 610 00:50:05,310 --> 00:50:06,769 'Pravednost je ime za određene moralne zahtjeve 611 00:50:06,769 --> 00:50:09,069 koji, na kolektivnoj razini, stoje visoko na skali društvene korisnosti 612 00:50:09,069 --> 00:50:11,220 i stoga predstavljaju mjerodavniju obavezu od bilo koje druge.' 613 00:50:23,200 --> 00:50:28,919 Dakle, pravednost je sveta, prvenstvena, povlaštena. 614 00:50:28,920 --> 00:50:30,890 To nije nešto što se može lako razmijeniti za manje vrijedne stvari, 615 00:50:30,890 --> 00:50:32,239 ali razlog je, u konačnici, tvrdi Mills, utilitaristički razlog 616 00:50:37,929 --> 00:50:39,239 Kad pogledate dugoročne interese ljudske vrste, 617 00:50:41,199 --> 00:50:43,539 svih nas kao progresivnih bića, 618 00:50:46,329 --> 00:50:47,699 ako postupamo pravedno i poštujemo prava, 619 00:50:51,279 --> 00:50:52,609 društvu će u cjelini biti bolje, dugoročno gledano. 620 00:50:55,949 --> 00:50:57,999 Je li to uvjerljivo? 621 00:50:57,999 --> 00:50:59,158 Ili, da li Mills ustvari, ne priznajući to, izlazi izvan utilitarističkih okvira 622 00:51:06,219 --> 00:51:07,789 zalažući se za kvalitativno viša zadovoljstva 623 00:51:12,789 --> 00:51:14,479 i za sveta, odnosno posebno važna, prava pojedinca? 624 00:51:18,479 --> 00:51:21,718 Mi nismo u potpunosti odgovorili na to pitanje 625 00:51:21,719 --> 00:51:23,809 jer da bi se odgovorilo na to pitanje, u slučaju prava i pravednosti, 626 00:51:26,259 --> 00:51:28,869 nužno bi bilo istražiti druge načine, neutilitarističke načine, 627 00:51:33,369 --> 00:51:35,030 tumačenja osnove prava 628 00:51:36,479 --> 00:51:38,269 i onda se zapitati da li su valjana. 629 00:51:40,409 --> 00:51:42,949 Što se tiče Jeremy Benthama, 630 00:51:42,949 --> 00:51:44,969 koji je lansirao utilitarizam kao doktrinu i moralnu i pravnu filozofiju, 631 00:51:49,979 --> 00:51:53,819 Bentham je umro 1832. u dobi od 85 godina, 632 00:51:53,819 --> 00:51:57,509 ali ako odete u London možete ga i danas posjetiti, doslovno. 633 00:51:58,729 --> 00:52:01,439 U svojoj oporuci pobrinuo se da njegovo tijelo bude konzervirano, 634 00:52:03,390 --> 00:52:05,489 balzamirano i izloženo na sveučilištu University of London 635 00:52:07,739 --> 00:52:11,069 gdje još uvijek vlada u staklenoj vitrini s voštanom glavom u svom stvarnom odijelu. 636 00:52:14,989 --> 00:52:17,049 Vidite, prije no što je umro Bentham si je postavio pitanje sukladno svojoj filozofiji, 637 00:52:22,339 --> 00:52:23,499 od kakve koristi bi mrtav čovjek mogao biti živima? 638 00:52:26,839 --> 00:52:30,499 Jedna korist, rekao je, bila bi staviti svoj leš na raspolaganje 639 00:52:30,499 --> 00:52:33,519 za studiranje anatomije. 640 00:52:33,519 --> 00:52:37,129 U slučaju velikih filozofa, međutim, 641 00:52:37,129 --> 00:52:38,159 jo je bolje sačuvati svoju fizičku prisutnost kao inspiraciju budućim generacijama mislilaca. 642 00:52:44,919 --> 00:52:47,618 Želite vidjeti kako izgleda punjeni Bentham? 643 00:52:47,619 --> 00:52:50,410 Ovako izgleda. 644 00:52:53,549 --> 00:52:55,459 Ako pogledate pažljivo, primjetit ćete 645 00:52:57,459 --> 00:52:58,529 da balzamiranje njegove stvarne glave nije baš uspjelo pa su je zamijenili voštanom, 646 00:53:06,910 --> 00:53:10,009 a na dnu radi vjerodostojnosti možete vidjeti njegovu pravu glavu na tanjuru. 647 00:53:16,529 --> 00:53:17,809 Vidite? 648 00:53:17,809 --> 00:53:22,599 Ovdje. 649 00:53:22,599 --> 00:53:25,709 Pa, koja je pouka priče? 650 00:53:25,709 --> 00:53:29,499 Pouka priče ... 651 00:53:29,499 --> 00:53:33,698 usput, vade ga za vrijeme zasjedanja vijeća na University College London, 652 00:53:33,699 --> 00:53:40,659 a u zapisniku ga bilježe kao prisutnog bez prava glasa. 653 00:53:40,659 --> 00:53:42,539 Ovdje je filozof u životu i smrti koji se držao principa svoje filozofije. 654 00:53:48,400 --> 00:53:55,400 Idući puta nastavit ćemo s pravima.