0:00:20.040,0:00:23.040 Pravednost Michael Sandel 0:00:23.920,0:00:26.580 Ima li život cijenu? 0:00:29.390,0:00:37.510 Prošli puta raspravljali smo o[br]slučaju Kraljica protiv Dudleya i Stephensa, 0:00:39.400,0:00:43.790 slučaj u čamcu za spasavanje,[br]slučaj kanibalizma na moru, 0:00:45.970,0:00:49.620 i imajući na umu argumente[br]slučaja čamca za spasavanje, 0:00:49.839,0:00:53.220 argumente za i protiv onoga[br]što su učinili Dudley i Stephens, 0:00:54.150,0:01:00.200 vratimo se na utilitarističku filozofiju[br]Jeremya Benthama. 0:01:02.060,0:01:04.570 Bentham je rođen u Engleskoj 1748., 0:01:04.620,0:01:08.978 sa 12 godina pohađao je Oxford,[br]sa 15 se upisao na pravni fakultet. 0:01:09.740,0:01:14.100 Sa 19 primljen je u Odvjetničku komoru,[br]ali nikada se nije bavio pravom, 0:01:14.740,0:01:20.256 umjesto toga posvetio je život[br]filozofiji prava i filozofiji morala. 0:01:22.170,0:01:26.715 Prošli puta počeli smo razmatrati[br]Benthamovu verziju utilitarizma. 0:01:27.690,0:01:30.990 Glavna ideja, sažeto sročena,[br]je ova: 0:01:32.780,0:01:37.700 najviši princip morala,[br]bilo osobnog ili političkog morala, 0:01:40.529,0:01:43.780 je maksimiziranje općeg dobra 0:01:44.000,0:01:46.170 ili kolektivne sreće, 0:01:46.560,0:01:49.244 ili ukupne ravnoteže[br]zadovoljstva nad boli 0:01:50.070,0:01:53.338 u izrazu maksimizirane korisnosti. 0:01:56.150,0:01:59.747 Bentham dolazi do tog principa[br]rasuđujući na sljedeći način: 0:02:00.570,0:02:02.650 svima nama upravljaju bol i zadovoljstvo, 0:02:03.150,0:02:07.889 oni su naši suvereni gospodari,[br]pa ih svaki moralni sistem mora uzeti u obzir. 0:02:08.828,0:02:10.819 Kako ih najbolje uzeti u obzir? 0:02:10.999,0:02:12.392 Maksimiziranjem 0:02:13.739,0:02:17.999 i to vodi principu[br]'najvećeg dobra za najveći broj'. 0:02:19.400,0:02:21.394 Što bismo točno trebali maksimizirati? 0:02:22.749,0:02:24.978 Bentham nam kaže - sreću 0:02:25.510,0:02:28.256 ili, preciznije, korisnost. 0:02:28.679,0:02:33.439 Maksimiziranje korisnosti nije najvažnije[br]samo za pojedince, već i za zajednice 0:02:33.929,0:02:35.460 i zakonodavce. 0:02:36.569,0:02:39.239 Na koncu, što je zajednica?[br]- pita Bentham. 0:02:41.359,0:02:44.377 To je suma pojedinaca koji je sačinjavaju. 0:02:44.779,0:02:47.520 I zbog toga, u odlučivanju[br]o najboljim političkim mjerama, 0:02:47.650,0:02:51.360 u odlučivanju što bi trebalo biti zakon,[br]u odlučivanju što je pravedno, 0:02:52.380,0:02:56.609 građani i zakonodavci bi se trebali[br]zapitati: 0:02:56.609,0:03:00.760 Ako zbrojimo sve prednosti ove politike 0:03:03.870,0:03:06.447 i oduzmemo sve troškove, 0:03:08.829,0:03:11.429 ispravna stvar koju treba učiniti[br]je ona 0:03:11.779,0:03:16.665 koja maksimizira saldo[br]sreće nad patnjom. 0:03:20.869,0:03:22.629 To znači maksimizirati korisnost. 0:03:23.769,0:03:29.498 Danas želim ustanoviti da li se vi[br]slažete s tim ili ne. 0:03:30.700,0:03:36.200 A ta utilitarna logika često dolazi[br]pod nazivom analiza troškova i koristi 0:03:36.650,0:03:42.429 koju koriste kompanije i vlade[br]cijelo vrijeme. 0:03:43.369,0:03:49.578 A ono što ona uključuje je[br]vrednovanje, obično u dolarima, korisnosti, 0:03:50.899,0:03:54.797 kao i troškova i prednosti[br]raznih prijedloga. 0:03:56.309,0:03:58.529 Nedavno je u Republici Češkoj 0:03:58.879,0:04:02.700 predstavljen prijedlog za povećanje [br]trošarine na pušenje. 0:04:03.120,0:04:05.980 Philip Morris, duhanska kompanija, 0:04:07.679,0:04:10.439 ostvaruje veliku dobit[br]u Republici Češkoj. 0:04:10.669,0:04:14.579 Oni su naručili studiju analize[br]troškova i koristi 0:04:15.148,0:04:18.068 za pušenje u Republici Češkoj. 0:04:18.678,0:04:21.787 I ono što je ustanovila ta studija[br]analize troškova i koristi, 0:04:23.550,0:04:29.396 je da vlada ostvaruje dobit[br]zahvaljujući pušenju čeških građana. 0:04:30.779,0:04:32.360 Pa, kako ostvaruju dobit? 0:04:32.660,0:04:38.519 Istina je da postoje negativni učinci[br]na javne financije češke vlade, 0:04:40.000,0:04:45.694 zbog povećanih troškova zdravstva[br]za ljude koji pate od bolesti povezanih s pušenjem, 0:04:47.239,0:04:49.799 s druge strane, postoje pozitivni učinci, 0:04:50.730,0:04:54.600 a to su, pribrojeni na drugoj strani bilance, 0:04:55.379,0:04:59.180 pozitivni učinci su uključivali, [br]najvećim dijelom, razne porezne prihode 0:04:59.260,0:05:03.539 koje vlada ostvaruje prodajom[br]duhanskih proizvoda, 0:05:03.800,0:05:08.305 no također su uključivali uštede[br]u zdravstvu kad ljudi umiru ranije, 0:05:08.910,0:05:12.466 uštede na penzijama[br]- ne morate plaćati penzije tako dugo - 0:05:13.339,0:05:17.149 i također uštede na troškovima[br]domova za starije. 0:05:19.679,0:05:22.679 I kad su bili sumirani svi troškovi i koristi, 0:05:24.640,0:05:27.340 studija Philip Morrisa je ustanovila 0:05:27.870,0:05:32.010 da neto dobit javnih financija[br]Republike Češke iznosi 0:05:32.610,0:05:35.479 147 milijuna dolara, 0:05:36.449,0:05:40.670 a u odnosu na uštede na smještaju[br]i zdravstvenoj skrbi i mirovinama, 0:05:41.407,0:05:50.839 vlada uživa uštedu od preko 1200 dolara za[br]svaku osobu koja prerano umre zbog pušenja. 0:05:51.919,0:05:53.870 Analiza troškova i koristi. 0:05:56.740,0:06:02.289 Oni od vas koji brane utilitarizam[br]mogli bi pomisliti da ovaj test nije fer. 0:06:03.389,0:06:09.130 Philip Morris je bio razapet u štampi[br]i objavio je ispriku za ovu bezdušnu kalkulaciju. 0:06:10.680,0:06:13.089 Mogli biste reći da je ono što[br]ovdje nedostaje 0:06:13.139,0:06:17.252 nešto što utilitaristi mogu lako[br]ugraditi, napose, 0:06:19.339,0:06:24.160 vrijednost za osobu i obitelji[br]onih koji umiru od raka pluća. 0:06:25.599,0:06:27.642 A što je sa vrijednošću života? 0:06:29.190,0:06:35.554 Neke analize troškova i koristi[br]sadržavaju mjeru za vrijednost života. 0:06:36.809,0:06:40.933 Jedan od najpoznatijih je slučaj [br]Ford Pinto automobila. 0:06:41.330,0:06:44.138 Je li itko čitao o tome?[br]To je bilo 1970.-tih. 0:06:44.298,0:06:47.499 Sjećate se da je Ford Pinto[br]bio marka automobila? 0:06:47.750,0:06:48.639 Itko? 0:06:51.029,0:06:54.899 To je bio mali auto, kompakt klase,[br]vrlo popularan, 0:06:55.949,0:07:00.849 ali imao je jedan problem, a to je[br]da je rezervoar za gorivo bio straga 0:07:01.599,0:07:04.718 i kod udarca u stražnji dio [br]rezervoar bi eksplodirao 0:07:07.660,0:07:11.570 i neki ljudi su poginuli,[br]a neki su bili ozbiljno povrijeđeni. 0:07:13.749,0:07:18.348 Žrtve tih nesreća tužile su Ford, 0:07:18.768,0:07:21.438 a na suđenju se ispostavilo 0:07:21.669,0:07:26.710 da je Ford odavno znao[br]za riskantnost rezervoara za gorivo 0:07:27.499,0:07:32.169 i da je napravio analizu troškova i koristi[br]kako bi ustanovio da li bi se isplatilo 0:07:33.599,0:07:35.833 ugraditi posebni štit 0:07:36.090,0:07:39.574 koji bi zaštitio rezervoar[br]i spriječio da eksplodira. 0:07:40.490,0:07:42.519 Napravili su analizu troškova i koristi; 0:07:42.979,0:07:48.766 cijena dijela koji bi povećao[br]sigurnost Pinta, 0:07:50.299,0:07:53.568 izračunali su da iznosi 11 dolara[br]po komadu. 0:07:55.939,0:08:01.347 A ovo je analiza troškova i koristi[br]koja se pojavila na suđenju, 0:08:02.879,0:08:08.812 11 dolara po komadu[br]za 12,5 milijuna automobila i kamiona 0:08:09.670,0:08:15.938 iznosila je ukupno 137 milijuna dolara[br]za povećanje sigurnosti. 0:08:17.370,0:08:22.178 A onda su izračunali prednosti ulaganja[br]tog novca u sigurniji auto. 0:08:23.300,0:08:28.197 Prebrojali su 180 smrti[br]i pridijelili dolarsku vrijednost: 0:08:29.130,0:08:31.079 200 tisuća dolara po jednoj smrti. 0:08:32.170,0:08:36.820 180 povreda - 67 tisuća dolara; 0:08:37.490,0:08:40.999 i onda troškovi popravka i zamjene[br]za 2000 vozila, 0:08:40.999,0:08:44.174 koji bi bili uništeni bez tog zaštitnog dijela, 0:08:44.719,0:08:46.875 700 dolara po vozilu. 0:08:48.060,0:08:53.690 Tako se pokazalo da bi prednosti[br]iznosile samo 49,5 milijuna 0:08:53.930,0:08:56.920 i stoga nisu ugradili tu zaštitu. 0:08:57.570,0:09:00.519 Nepotrebno je napominjati,[br]da kad se taj memo 0:09:01.700,0:09:06.420 o analizi troškova i koristi kompanije[br]Ford Motor Company pojavio na suđenju, 0:09:09.160,0:09:13.220 prenerazio je porotnike,[br]koji su dosudili goleme odštete. 0:09:15.950,0:09:20.020 Je li to protuprimjer za [br]utilitarističku ideju izračuna? 0:09:20.360,0:09:24.644 Jer Ford je uključio mjeru[br]za vrijednost života. 0:09:27.320,0:09:31.940 Tko bi od vas želio braniti[br]analizu troškova i koristi 0:09:33.190,0:09:35.120 u ovom očitom protuprimjeru? 0:09:35.320,0:09:36.740 Tko ima obranu? 0:09:38.520,0:09:43.350 Ili mislite da to u potpunosti ruši[br]cijeli utiilitaristički izračun? 0:09:47.410,0:09:50.970 Ja mislim da su opet napravili istu grešku[br]kao u prethodnom slučaju 0:09:51.220,0:09:56.116 pridijelivši dolarsku vrijednost ljudskom životu[br]ne uzimajući u obzir stvari poput 0:09:56.270,0:10:02.990 patnje i emocionalni gubitak obitelji,[br]koje su izgubile prihode, ali i svoje voljene. 0:10:03.860,0:10:06.700 a to vrijedi više od 200 tisuća dolara. 0:10:06.820,0:10:08.540 Čekajte, kako se vi zovete? 0:10:09.171,0:10:10.177 Julie Roto. 0:10:10.480,0:10:15.060 Pa, Julie, 200 tisuća je preniska cifra 0:10:15.230,0:10:20.100 jer ne uključuje gubitak voljenih[br]i gubitak svih tih godina života. 0:10:21.660,0:10:25.650 Što vi mislite, koji bi broj bio točniji? 0:10:26.970,0:10:28.660 Ne vjerujem da mogu dati broj, 0:10:28.660,0:10:32.669 mislim da se takva vrsta analize ne bi smjela[br]koristiti u pitanjima ljudskog života. 0:10:32.764,0:10:34.943 Mislim da se to ne može izraziti novčano. 0:10:35.100,0:10:38.170 Dakle, oni ne samo da su stavili[br]premalu brojku, 0:10:39.270,0:10:42.672 kaže Julie, nego su pogriješili[br]stavljajući bilo koji broj. 0:10:44.510,0:10:46.230 U redu, da čujemo nekoga tko ... 0:10:49.540,0:10:51.860 Morate uzeti u obzir inflaciju? 0:10:58.260,0:10:59.690 U redu, pošteno. 0:11:00.050,0:11:02.250 Pa koji bi to onda broj sada bio? 0:11:02.660,0:11:04.875 To je bilo prije 35 godina. 0:11:07.370,0:11:08.970 Dva milijuna dolara? 0:11:10.090,0:11:11.540 Vi bi stavili dva milijuna? 0:11:12.030,0:11:13.269 A kako se vi zovete? 0:11:13.269,0:11:14.099 Voicheck. 0:11:14.309,0:11:16.758 Voicheck kaže, moramo[br]uzeti u obzir inflaciju 0:11:17.330,0:11:19.049 Trebali bi biti velikodušniji. 0:11:19.360,0:11:23.370 Bi li tada smatrali da je ovo ispravan način[br]razmišljanja o tom pitanju? 0:11:25.170,0:11:31.350 Pretpostavljam, nažalost tu negdje[br]treba staviti broj, 0:11:32.161,0:11:34.440 nisam siguran koji bi to broj bio, 0:11:34.480,0:11:40.430 ali se slažem da bi se mogao[br]staviti broj na ljudski život. 0:11:41.060,0:11:43.109 U redu. Dakle Voicheck kaže, 0:11:44.260,0:11:46.470 i tu se ne slaže s Julie, ... 0:11:46.649,0:11:51.480 Julie kaže, ne možemo staviti broj na[br]ljudski život u svrhu analize troškova i koristi. 0:11:51.690,0:11:56.030 Voicheck kaže - moramo[br]jer moramo donositi odluke, nekako. 0:11:59.520,0:12:01.902 Što drugi misle o tome? 0:12:01.980,0:12:05.340 Je li itko ovdje spreman braniti[br]analizu troškova i koristi? 0:12:06.200,0:12:08.060 Kao točnu i poželjnu? 0:12:09.810,0:12:14.460 Ja mislim kad Ford i druge auto kompanije[br]ne bi koristile analizu troškova i koristi 0:12:15.260,0:12:18.209 na koncu bi propale jer ne bi mogle[br]biti profitabilne 0:12:18.489,0:12:21.749 i milijuni ljudi ne bi mogli koristiti[br]njihove aute za odlazak na posao 0:12:21.749,0:12:24.195 kako bi prehranili svoju djecu. 0:12:24.385,0:12:27.725 Zato mislim da ako se ne [br]koristi analiza troškova i koristi 0:12:28.340,0:12:32.478 žrtvuje se opće dobro u tom slučaju. 0:12:32.810,0:12:34.500 Dobro, da vas pitam[br]kako se zovete? 0:12:34.530,0:12:35.279 Raul. 0:12:37.589,0:12:42.399 Raul, nedavno je provedena studija o[br]upotrebi mobitela u autu za vrijeme vožnje 0:12:42.760,0:12:45.340 i vodila se diskusija o tome[br]treba li to zabraniti 0:12:48.660,0:12:53.611 Procjena je da oko 2000 ljudi umire 0:12:54.810,0:13:00.240 u nesrećama svake godine[br]zbog korištenja mobitela. 0:13:00.900,0:13:06.640 a ipak analiza troškova i koristi koju je[br]napravio Centar za analizu rizika na Harvardu 0:13:07.860,0:13:11.980 ustanovila je da ako pogledate [br]prednosti korištenja mobitela 0:13:13.560,0:13:18.439 i procijenite vrijednost života,[br]dođe skoro na isto 0:13:19.050,0:13:23.960 zbog goleme ekonomske koristi[br]omogućavanja ljudima da iskoriste vrijeme, 0:13:24.040,0:13:27.330 da ne gube vrijeme, da mogu ugovarati poslove[br]i razgovarati s prijateljima i tako dalje 0:13:27.370,0:13:28.720 za vrijeme dok voze. 0:13:29.900,0:13:36.140 Ne sugerira li to da je pogrešno[br]ljudski život vrednovati novčanim iznosima? 0:13:37.590,0:13:40.564 Pa, ja mislim da ako velika većina ljudi 0:13:41.320,0:13:45.369 pokušava izvući maksimalnu korist[br]iz usluge kao što je upotreba mobitela 0:13:45.880,0:13:47.739 i pogodnosti koju pružaju mobiteli, 0:13:47.989,0:13:52.710 tada je žrtva nužna[br]da bi ljudi bili zadovoljni. 0:13:53.230,0:13:55.649 Vi ste otvoreno utilitarista?! 0:13:56.530,0:13:57.270 Da. 0:14:00.020,0:14:01.318 Zadnje pitanje Raul, 0:14:03.600,0:14:05.619 a postavio sam ga i Voichecku. 0:14:05.679,0:14:11.670 Koja bi morala biti cijena ljudskog života[br]u dolarima da bi se zabranilo korištenje mobitela? 0:14:12.870,0:14:17.709 Ne želim proizvoljno računati brojke[br]ovoga časa... 0:14:21.350,0:14:23.359 Želite li to uzeti u razmatranje? 0:14:23.610,0:14:24.790 Da, uzet ću to ... 0:14:25.090,0:14:28.069 Ali ugrubo, koliko bi to bilo?[br]Imate 2300 smrti, 0:14:28.690,0:14:31.970 morate odrediti dolarsku vrijednost[br]da biste znali želite li spriječiti te smrti 0:14:32.010,0:14:34.539 zabranom upotrebe mobitela u autima. 0:14:36.660,0:14:39.940 Pa, imate li neki osjećaj koliko? 0:14:40.350,0:14:41.859 Milijun, dva milijuna? 0:14:42.280,0:14:44.170 Dva milijuna je bila Voitechova cifra. 0:14:44.410,0:14:46.410 Je li to otprilike točno? - Možda milijun. 0:14:46.490,0:14:47.770 Milijun?! - Da. 0:14:51.140,0:14:52.090 Dobro je, hvala. 0:14:54.650,0:14:59.359 To su neke kontraverze koje danas[br]proizlaze iz analize troškova i koristi, 0:14:59.549,0:15:05.130 posebno one koje uključuju pridjeljivanje[br]dolarske vrijednosti svemu što ulazi u zbroj. 0:15:06.770,0:15:09.840 Sada bih se želio okrenuti vašim prigovorima, 0:15:09.960,0:15:14.560 vašim prigovorima, ne nužno na[br]analizu troškova i koristi izričito, 0:15:14.740,0:15:20.249 jer to je samo jedna verzija[br]utilitarističke logike u današnjoj praksi, 0:15:21.720,0:15:24.010 nego na teoriju u cjelini, 0:15:24.200,0:15:28.220 na ideju da je ispravni postupak, 0:15:30.000,0:15:32.630 pravedna osnova za[br]političke mjere i zakon, 0:15:33.710,0:15:36.190 maksimiziranje korisnosti. 0:15:39.750,0:15:43.440 Koliko vas se ne slaže[br]s utilitarističkim pristupom 0:15:44.330,0:15:47.510 zakonu i općem dobru? 0:15:48.330,0:15:49.890 Koliko vas se slaže s njim? 0:15:52.070,0:15:54.970 Dakle više vas je koji se slažu[br]nego onih koji se ne slažu. 0:15:55.200,0:15:56.780 Pa da čujemo kritičare. 0:15:59.560,0:16:03.059 Moj glavni problem s tim je da mi se čini[br]da ne možete reći ... 0:16:03.549,0:16:05.230 samo zato što je netko u manjini, 0:16:06.280,0:16:11.063 da su njegove želje i potrebe[br]manje vrijedne nego onih koji su u većini. 0:16:11.650,0:16:13.939 Pretpostavljam da imam problem [br]s idejom da je 0:16:14.102,0:16:16.607 'najveće dobro za najveći broj' u redu, 0:16:16.697,0:16:21.401 jer što je onda s ljudima[br]kojih je manji broj, 0:16:21.500,0:16:25.634 to onda nije fer prema njima jer[br]nemaju pravo glasa o tome što oni žele. 0:16:25.840,0:16:30.030 To je zanimljiv prigovor, vi brinete[br]o učinku na manjinu? 0:16:30.940,0:16:31.850 Da. 0:16:32.270,0:16:33.380 Usput, kako se zovete? 0:16:33.500,0:16:34.300 Anna. 0:16:35.299,0:16:39.639 Tko ima odgovor na Anninu brigu[br]za učinak na manjinu? 0:16:39.960,0:16:41.360 Što kažete Anni? 0:16:41.450,0:16:45.170 Ona je rekla da manjine vrijede manje.[br]Ja mislim da to nije slučaj 0:16:45.260,0:16:50.443 jer pojedinci u manjini vrijede[br]sasvim jednako kao pojedinci u većini, 0:16:50.599,0:16:54.580 samo je stvar u tome da brojevi[br]nadilaze manjinu. 0:16:56.210,0:16:58.269 U određenom trenutku[br]morate donijeti odluku 0:16:58.969,0:17:04.260 i žao mi je manjine, ali ponekad[br]je to za opće, veće dobro. 0:17:04.450,0:17:07.130 Za veće dobro. Anna, što vi kažete?[br]Vaše ime? 0:17:07.650,0:17:08.510 Youngda. 0:17:08.664,0:17:10.174 Što kažete Youngdai? 0:17:10.429,0:17:13.339 Youngda kaže, morate samo zbrojiti[br]preferencije ljudi, 0:17:13.439,0:17:16.738 a preferencije onih u manjini[br]zaista se mjere. 0:17:17.309,0:17:20.070 Možete li dati neki primjer[br]za ono što vas brine 0:17:20.260,0:17:26.820 kad kažete da ste zabrinuti da utilitarizam[br]krši interes i uvažavanje manjine? 0:17:27.970,0:17:29.730 Možete li dati neki primjer? 0:17:30.050,0:17:33.593 Pa, u odnosu na svaki od slučajeva[br]o kojima smo govorili, poput brodoloma, 0:17:35.179,0:17:41.662 mislim da je dječak koji je pojeden ipak[br]imao jednako pravo na život kao i drugi ljudi, 0:17:43.560,0:17:48.966 a samo zato što je bio 'manjina'[br]u tom slučaju, 0:17:49.100,0:17:52.940 onaj koji je možda imao manje šanse[br]da nastavi živjeti, 0:17:53.460,0:17:57.662 to ne znači da drugi automatski[br]imaju pravo da ga pojedu 0:17:58.450,0:18:02.500 samo zato jer bi to većem broju ljudi[br]pružilo šansu da preživi. 0:18:03.290,0:18:09.570 Dakle, možda postoje određena prava[br]koja imaju manjine, odnosno pojedinac, 0:18:09.980,0:18:15.290 koja ne bi smjela biti razmjenjivana[br]u ime korisnosti? 0:18:16.520,0:18:17.640 Da, Anna? 0:18:18.210,0:18:20.414 Ovo bi bio test za vas. 0:18:21.990,0:18:27.843 U drevnom Rimu bacali su kršćane lavovima[br]u koloseumu iz sporta. 0:18:29.510,0:18:32.713 Ako razmislite o načinu [br]utilitarističkog računanja - 0:18:33.890,0:18:38.154 da, krščanin bačen lavu proživljava[br]ogromni nepodnošljivi bol, 0:18:38.770,0:18:41.720 ali pogledajte kolektivnu ekstazu Rimljana! 0:18:45.150,0:18:46.427 Youngda. 0:18:50.580,0:18:51.889 Pa, u to vrijeme ... 0:18:54.920,0:19:00.820 U moderno vrijeme, uzimajući u obzir[br]radost pruženu ljudima koji gledaju, 0:19:01.680,0:19:10.890 mislim da niti jedan zakonodavac ne bi[br]rekao da je patnja jednog čovjeka puno ... 0:19:12.090,0:19:14.410 u usporedbi sa radošću koju donosi ... 0:19:14.680,0:19:19.992 Ne, ali morate priznati da u slučaju da je[br]dovoljan broj Rimljana bio izbezumljen od sreće 0:19:20.460,0:19:26.211 to bi prevagnulo čak i najužasniju bol[br]nekolicine kršćana bačenih lavovima. 0:19:28.600,0:19:32.651 Dakle, zaista ovdje imamo[br]dva različita prigovora utilitarizmu. 0:19:33.570,0:19:41.830 Jedan se odnosi na primjereno [br]poštovanje ljudskih prava odnosno prava manjina. 0:19:42.500,0:19:52.350 A drugi se odnosi na cijelu ideju objedinjavanja[br]korisnosti ili preferencija ili vrijednosti. 0:19:53.070,0:19:59.120 Da li je moguće objediniti sve vrijednosti[br]i prevesti ih u dolarsku vrijednost? 0:20:02.460,0:20:13.079 1930.-ih bio je jedan psiholog[br]koji je pokušao govoriti o drugom pitanju. 0:20:13.300,0:20:17.730 Pokušao je dokazati ono što[br]utilitarizam smatra istinom, 0:20:18.530,0:20:24.700 da je zaista moguće prevesti[br]sve robe, sve vrijednosti, 0:20:24.840,0:20:26.300 sve do čega je ljudima stalo, 0:20:26.419,0:20:28.692 u jedinstvenu uniformnu mjeru, 0:20:28.909,0:20:34.290 a to je učinio tako da je proveo anketu[br]među mladim primateljima socijalne pomoći. 0:20:34.390,0:20:36.190 To je bilo 1930. -tih. 0:20:37.610,0:20:41.449 Dao im je listu neugodnih doživljaja 0:20:42.000,0:20:46.550 i pitao ih, 'Koliko bi trebali biti plaćeni[br]da pristanete proživjeti ove stvari?' 0:20:47.021,0:20:48.448 I vodio je bilješke. 0:20:49.530,0:20:54.606 Na primjer, 'Koliko biste morali biti plaćeni[br]da pristanete na vađenje prednjeg gornjeg zuba?' 0:20:56.840,0:21:02.676 ili 'Koliko bi trebali biti plaćeni da pristanete[br]da vam se odsiječe jedan mali nožni prst?' 0:21:05.030,0:21:08.781 ili ' da jedete žive gliste od 20 cm' 0:21:10.510,0:21:15.050 ili 'da ostatak života proživite[br]na farmi u Kansasu' 0:21:19.430,0:21:22.790 ili 'da golim rukama zadavite[br]mačku lutalicu'? 0:21:24.400,0:21:29.565 Što mislite, koja je bila najskuplja[br]stavka na toj listi? 0:21:32.410,0:21:33.520 Kansas? 0:21:39.750,0:21:41.825 U pravu ste, bio je to Kansas. 0:21:44.840,0:21:50.578 Za Kansas ljudi su rekli da bi morali[br]biti plaćeni 300.000 dolara. 0:21:57.340,0:22:02.127 Što mislite koja je bila sljedeća[br]najskuplja stavka? 0:22:02.900,0:22:03.970 Nije mačka, 0:22:05.710,0:22:06.610 nije zub, 0:22:07.670,0:22:09.480 nije nožni prst, 0:22:10.900,0:22:12.061 glista! 0:22:16.290,0:22:21.485 Ljudi su rekli da bi im trebali platiti[br]sto tisuća dolara da pojedu glistu! 0:22:23.000,0:22:25.990 Što mislite da je bila [br]najmanje skupa stavka? 0:22:27.730,0:22:28.770 Nije mačka, 0:22:30.010,0:22:30.910 zub! 0:22:31.300,0:22:37.100 U vrijeme depresije ljudi su bili voljni[br]da im se izvadi zub za samo 4.500 dolara. 0:22:40.150,0:22:46.200 Evo što je Thorndike zaključio[br]iz svog istraživanja: 0:22:47.750,0:22:53.630 svaka želja ili užitak koji postoje,[br]postoje u nekoj količini i stoga su mjerljivi. 0:22:54.600,0:22:57.939 Život psa ili mačke ili kokoši 0:22:58.109,0:23:03.369 sastoji se od apetita,[br]žudnji, želja i zadovoljenja. 0:23:04.290,0:23:10.331 Isto vrijedi za život ljudskih bića,[br]iako su apetiti i želje kompliciraniji. 0:23:12.450,0:23:15.022 Ali što je s Thorndikeovom studijom? 0:23:15.570,0:23:18.970 Podržava li ona Benthamovu ideju 0:23:20.210,0:23:23.170 da sva dobra, sve vrijednosti 0:23:23.360,0:23:27.809 mogu biti obuhvaćeni jednom[br]uniformnom mjerom vrijednosti 0:23:28.190,0:23:32.139 ili besmislenost ovih stavki na listi 0:23:33.459,0:23:36.390 sugerira suprotni zaključak 0:23:37.220,0:23:42.736 da možda - bez obzira govorimo li[br]o životu ili Kanzasu ili glisti - 0:23:44.180,0:23:48.485 možda stvari koje su nam vrijedne i važne 0:23:49.180,0:23:53.670 ne mogu biti obuhvaćene jednom[br]uniformnom mjerom vrijednosti. 0:23:54.280,0:24:00.929 A ako ne mogu, koje su posljedice[br]za utilitarističku teoriju morala? 0:24:01.750,0:24:04.797 To je pitanje kojim ćemo[br]nastaviti sljedeći puta. 0:24:13.179,0:24:16.370 Uzmimo sada drugi dio glasova. 0:24:17.370,0:24:22.159 Koji je doživljaj najvećeg užitka? 0:24:23.040,0:24:25.927 Koliko vas kaže Shakespeare? 0:24:26.137,0:24:28.467 KAKO MJERITI UGODU 0:24:31.720,0:24:35.457 Koliko vas kaže Fear Factor[br](Faktor straha, serija)? 0:24:38.120,0:24:40.546 Ne, nemoguće da ste ozbiljni,[br]zaista? 0:24:47.820,0:24:51.890 Prošli puta počeli smo razmatrati[br]neke prigovore 0:24:53.510,0:24:57.720 na verziju utilitarizma[br]Jeremy Benthama. 0:25:01.790,0:25:05.890 U raspravi koju smo vodili[br]ljudi su iznijeli dva prigovora. 0:25:08.380,0:25:12.520 Prvi prigovor odnosno tvrdnja bila je 0:25:12.710,0:25:18.890 da utilitarizam baveći se[br]'najvećim dobrom za najveći broj' 0:25:19.450,0:25:23.733 propušta primjereno poštovati[br]prava pojedinca. 0:25:24.970,0:25:30.780 Danas imamo debate[br]o mučenju i terorizmu. 0:25:33.210,0:25:38.739 Pretpostavimo da je osumnjičeni terorist[br]uhićen 10. rujna 0:25:40.980,0:25:45.969 i imate razloga vjerovati[br]da je osumnjičeni 0:25:46.320,0:25:49.640 imao ključne informacije o[br]predstojećem terorističkom napadu 0:25:49.750,0:25:51.580 u kojem će poginuti preko 3000 ljudi. 0:25:52.200,0:25:54.799 I ne možete izvući informacije iz njega? 0:25:55.280,0:26:00.118 Da li bi bilo pravedno mučiti[br]osumnjičenika 0:26:01.070,0:26:02.717 kako bi se dobile informacije? 0:26:03.060,0:26:03.930 Ili 0:26:05.550,0:26:11.880 kažete - Ne, postoji kategorična moralna[br]obaveza poštovanja prava pojedinca 0:26:14.290,0:26:17.439 Na neki način vratili smo se na pitanje[br]s kojim smo počeli, 0:26:17.640,0:26:21.176 o tramvaju i transplantaciji organa.[br]To je prvo sporno pitanje. 0:26:23.910,0:26:28.766 I sjećate se da smo razmatrali[br]neke primjere analize troškova i koristi. 0:26:29.250,0:26:33.116 Ali mnogo ljudi nije bilo zadovoljno[br]s analizom troškova i koristi 0:26:33.870,0:26:37.625 kad se radilo o pridjeljivanju[br]dolarske vrijednosti ljudskom životu. 0:26:39.970,0:26:43.013 I to nas je dovelo do drugog prigovora 0:26:44.500,0:26:47.961 koji je doveo u pitanje mogućnost[br]prevođenja svih vrijednosti 0:26:48.510,0:26:51.549 na jednu uniformnu mjeru vrijednosti. 0:26:52.610,0:26:56.386 Drugim riječima, pitanje je[br]jesu li sve vrijednosti sumjerljive. 0:26:57.580,0:27:05.344 Da vam dam još jedan primjer, ustvari,[br]istinitu priču iz osobnog iskustva, 0:27:07.240,0:27:13.380 koja barem postavlja pitanje mogu li se[br]sve vrijednosti prevesti bez gubitka 0:27:13.610,0:27:15.911 u utilitaritarističke termine. 0:27:19.759,0:27:21.609 Prije puno godina 0:27:22.110,0:27:25.170 kad sam bio na diplomskom studiju[br]na Oxfordu u Engleskoj, 0:27:25.270,0:27:29.400 i postojali su muški i ženski fakulteti,[br]još nisu bili miješani. 0:27:29.800,0:27:34.658 I ženski fakulteti imali su pravila[br]zabrane noćnih posjeta za muške goste. 0:27:37.470,0:27:42.843 U 1970.-ima ta su se pravila[br]rijetko provodila i lako kršila 0:27:44.030,0:27:45.870 ili su mi tako rekli. 0:27:51.600,0:27:55.939 Kasnih sedamdesetih, kad sam ja bio tamo,[br]porastao je pritisak za ublažavanje tih pravila 0:27:55.969,0:28:01.060 i to je postalo predmet diskusije[br]na St. Anne College, 0:28:01.100,0:28:03.411 koji je bio jedan od tih fakulteta[br]samo za žene. 0:28:03.840,0:28:07.480 Starije žene na fakultetu[br]bile su tradicionalisti, 0:28:07.550,0:28:11.640 protivile su se promjeni[br]na konvencionalnim moralnim osnovama. 0:28:12.820,0:28:15.543 No, vremena su se promijenila[br]i bilo im je neugodno 0:28:16.980,0:28:19.870 iznijeti pravu osnovu [br]svojih prigovora. 0:28:20.000,0:28:24.069 I zato su svoje argumente prevele[br]u utilitarističke termine. 0:28:25.640,0:28:30.326 Ako muškarci ostaju preko noći,[br]tvrdile su, povećat će se troškovi fakulteta. 0:28:31.460,0:28:33.270 Kako, možda se pitate? 0:28:33.490,0:28:37.119 Pa, poželjet će se okupati[br]i potrošit će našu toplu vodu, rekle su. 0:28:38.879,0:28:43.198 Nadalje, tvrdile su, morat ćemo[br]češće mijenjati madrace. 0:28:46.780,0:28:51.325 Reformatori su udovoljili tim zahtjevima[br]usvajajući sljedeće kompromise: 0:28:52.120,0:28:57.300 svaka žena može imati maksimalno[br]tri noćna gosta tjedno 0:29:01.160,0:29:04.827 - nisu rekli da li to mora biti ista osoba[br]ili tri različite - 0:29:05.410,0:29:08.716 uz uvjet, i u tome je bio kompromis,[br]uz uvjet 0:29:09.240,0:29:13.731 da gost plaća 50 pensa[br]da namiri trošak fakulteta. 0:29:15.340,0:29:20.345 Sljedeći dan pojavio se naslov[br]u nacionalnim novinama: 0:29:20.840,0:29:24.880 'Djevojke na St Anne, 50 pensa za noć'! 0:29:29.090,0:29:35.130 Još jedna ilustracija teškoće[br]prevođenja svih vrijednosti, 0:29:36.150,0:29:38.585 - u ovom slučaju određene ideje vrline - 0:29:38.930,0:29:41.054 u utilitarističke termine. 0:29:42.900,0:29:49.970 Dakle, ovo sve je kao ilustracija [br]drugog prigovora utilitarizmu, 0:29:50.050,0:29:53.899 barem onog dijela tog prigovora[br]koji dovodi u pitanje 0:29:54.780,0:29:58.157 ispravnost utilitarizma u stajalištu 0:29:58.570,0:30:04.599 da možemo prihvatiti uniformnost vrijednosti,[br]sumjerljivost svih vrijednosti, 0:30:04.839,0:30:10.649 i prevesti sva moralna razmatranja[br]u dolare odnosno novac. 0:30:12.220,0:30:17.996 No postoji i drugi aspekt brige u vezi[br]agregiranja vrijednosti i preferencija. 0:30:19.690,0:30:25.890 Zašto bismo trebali odvagnuti[br]sve preferencije koje ljudi imaju 0:30:26.910,0:30:31.206 bez procjenjivanja jesu li te preferencije[br]dobre ili loše? 0:30:32.130,0:30:39.091 Ne bismo li trebali razlikovati[br]viša i niža zadovoljstva? 0:30:41.760,0:30:48.300 Dio sklonosti da ne radimo kvalitatine razlike[br]između vrijednosti preferencija ljudi, 0:30:48.490,0:30:54.510 djelomično smo tome skloni zato[br]jer je to neosuđujuće i egalitaristički. 0:30:55.250,0:30:57.262 Benthamov utilitarista kaže: 0:30:57.540,0:31:03.812 Svačije preferencije se računaju[br]bez obzira na to što ljudi žele, 0:31:04.280,0:31:07.505 bez obzira na to što veseli različite ljude. 0:31:08.070,0:31:11.771 Za Benthama, važno je jedino,[br]sjetit ćete se, 0:31:13.210,0:31:17.261 intenzitet i trajanje zadovoljstva ili boli. 0:31:18.270,0:31:23.264 Takozvana viša zadovoljstva ili plemenite[br]vrline su jednostavno one, prema Benthamu, 0:31:24.040,0:31:27.560 koje proizvode jače, duže zadovoljstvo. 0:31:29.040,0:31:32.450 Čuvena fraza za iskazivanje te ideje je 0:31:32.790,0:31:38.334 'količina zadovoljstva je jednaka,[br]radi li se o pribadači ili poeziji'. 0:31:39.139,0:31:40.814 Što je bila 'pribadača'? 0:31:41.339,0:31:45.927 Bila je to neka vrsta dječje igre,[br]'igra pribadača dobra je koliko i poezija', 0:31:46.559,0:31:47.684 kaže je Bentham. 0:31:48.850,0:31:53.264 A, mislim da ispod te ideje leži[br]tvrdnja, slutnja, 0:31:54.090,0:32:02.040 da je oholo prosuđivati čija su zadovoljstva[br]intrinzično viša ili vrednija ili bolja. 0:32:03.850,0:32:07.590 I ima nešto privlačno u tom odbijanju[br]da se prosuđuje, 0:32:07.700,0:32:11.862 na koncu neki ljudi vole Mozarta,[br]drugi Madonnu, 0:32:12.520,0:32:16.490 neki ljudi vole balet,[br]drugi kuglanje. 0:32:17.360,0:32:19.939 Tko je taj koji će reći,[br]mogao bi tvrditi Bentham, 0:32:20.030,0:32:22.270 tko je taj koji će reći[br]koja od tih zadovoljstava, 0:32:23.140,0:32:27.965 čija zadovoljstva su viša, vrednija,[br]plemenitija od drugih? 0:32:30.460,0:32:32.700 Ali, je li to ispravno? 0:32:35.540,0:32:38.754 To odbijanje da radimo[br]kvalitativne razlike. 0:32:40.030,0:32:44.182 Možemo li se mi sasvim odreći ideje 0:32:44.850,0:32:51.180 da su određene stvari, koje nam[br]čine zadovoljstvo, bolje ili vrednije od drugih? 0:32:53.470,0:32:58.470 Sjetite se Rimljana u koloseumu,[br]jedna stvar koja je u tome ljude smetala 0:32:58.610,0:33:02.010 bilo je da su se time izgleda[br]kršila prava kršćana. 0:33:04.010,0:33:06.770 Druga zamjerka onome što se tu događa 0:33:07.250,0:33:11.990 je uživanje Rimljana u tom krvavom spektaklu. 0:33:13.230,0:33:17.534 Treba li to zadovoljstvo, koje je sramotno[br]i na neki način korumpirano, 0:33:18.880,0:33:20.480 ponižavajuće zadovoljstvo, 0:33:20.600,0:33:26.530 treba li to uopće biti valorizirano[br]odnosno vagano pri odlučivanju 0:33:26.960,0:33:28.965 o tome što je opće dobro? 0:33:33.770,0:33:36.770 Dakle, ovo su prigovori na Benthamov[br]uitlitarizam, 0:33:38.760,0:33:43.950 a sada se okrećemo nekome[br]tko je pokušao odgovoriti na te prigovore, 0:33:45.410,0:33:48.748 mlađi utilitarista, John Stuart Mill. 0:33:50.120,0:33:53.260 Ono što sada trebamo ispitati 0:33:54.210,0:34:01.409 je, da li John Stuart Mill ima uvjerljivi[br]odgovor na ove prigovore utilitarizmu. 0:34:04.750,0:34:12.500 John Stuart Mill je rođen 1806., njegov otac,[br]James Mill bio je Benthamov učenik 0:34:14.079,0:34:19.359 i James Mill se odlučio svom sinu, Johnu[br]Stuartu Millu, dati primjereno obrazovanje. 0:34:20.329,0:34:23.119 On je bio čudo od djeteta, John Stuart Mill, 0:34:23.569,0:34:27.769 znao je grčki s tri godine,[br]latinski s osam, 0:34:27.859,0:34:30.866 a u dobi od 10 godina napisao je[br]Povijest rimskog prava. 0:34:33.659,0:34:36.790 U dobi od 20 godina [br]doživio je živčani slom, 0:34:38.939,0:34:41.527 to ga je bacilo u depresiju pet godina, 0:34:43.399,0:34:46.469 ali sa 25, ono što mu je pomoglo[br]da se izvuče iz te depresije 0:34:46.800,0:34:48.865 je susret s Harriet Taylor. 0:34:49.949,0:34:52.529 Ona Mill su se oženili i živjeli sretno[br]do kraja života 0:34:52.659,0:34:54.849 i bilo je to pod njenim utjecajem 0:34:56.399,0:35:00.729 da je John Stuart Mill pokušao[br]humanizirati utilitarizam. 0:35:01.430,0:35:03.740 Ono što je Mill pokušao je učiniti[br]je da ustanovi 0:35:03.899,0:35:09.710 da li utilitarističko računanje[br]može biti prošireno i modificirano 0:35:11.200,0:35:15.209 kako bi zadovoljilo humanitarne dvojbe[br]poput: 0:35:17.429,0:35:19.510 brige za poštovanje prava pojedinca 0:35:20.390,0:35:25.248 i također razlike između viših i nižih[br]zadovoljstava. 0:35:26.389,0:35:29.658 1859. Mill je napisao čuvenu knjigu[br]'O slobodi', 0:35:30.369,0:35:35.399 čija je glavna tema važnost obrane[br]prava pojedinca i prava manjina, 0:35:36.380,0:35:39.246 a 1861. pred kraj života 0:35:39.909,0:35:42.603 napisao je knjigu koju čitamo[br]u okviru ovog kolegija 0:35:43.130,0:35:44.545 'Utilitarizam'. 0:35:45.099,0:35:50.289 U njoj pojašnjava da je korisnost[br]jedino mjerilo moralnosti, po njemu. 0:35:50.769,0:35:53.439 Dakle, on ne dovodi u pitanje[br]Benthamovu premisu, 0:35:53.679,0:35:55.009 on je potvrđuje. 0:35:55.279,0:35:57.914 On vrlo izričito kaže, 'Jedini dokaz 0:35:58.829,0:36:04.659 da je moguće postići da je bilo što poželjno,[br]je taj da ljudi to zaista žele.' 0:36:05.929,0:36:14.009 Dakle, on ostaje kod ideje da su de facto[br]empirijske želje jedini temelj za moralnu prosudbu. 0:36:15.619,0:36:19.709 Ali onda - strana 8 također u poglavlju 2 - 0:36:19.809,0:36:26.698 on tvrdi da je utilitarista u mogućnosti[br]razlikovati viša od nižih zadovoljstava. 0:36:28.700,0:36:31.350 Vi koji ste već čitali Milla, 0:36:32.079,0:36:35.989 kako je, po njemu, moguće[br]utvrditi tu razliku? 0:36:36.559,0:36:42.149 Kako utilitarista može kvalitativno[br]razlikovati viša zadovoljstva 0:36:42.819,0:36:45.900 od nižih, sramotnih, nevrijednih? 0:36:48.859,0:36:53.873 Ako ste probali oba, prirodno ćete[br]dati prednost onom višem, uvijek. 0:36:55.309,0:36:57.499 Sjajno, to je točno.[br]Kako se zovete? 0:36:57.499,0:36:58.489 John. 0:36:59.669,0:37:02.334 Pa, kako ističe John, Mill kaže, 0:37:02.529,0:37:10.301 'Evo testa, budući da ne možemo [br]iskoračiti izvan stvarnih želja i preferencija, 0:37:10.490,0:37:13.109 to bi narušilo utilitarističke premise, 0:37:13.670,0:37:14.869 jedini test 0:37:16.819,0:37:20.260 da li je zadovoljstvo više ili niže, 0:37:20.549,0:37:27.248 je da li bi mu netko tko je doživio oba,[br]dao prednost. 0:37:28.909,0:37:35.049 A ovdje, u poglavlju 2, vidimo odlomak[br]u kojem Mill govori ono što je John opisao. 0:37:36.919,0:37:40.130 'Od dva zadovoljstva, ako postoji jedno[br]kojem bi svi, ili skoro svi, 0:37:40.130,0:37:43.382 koji imaju iskustvo oba, 0:37:43.500,0:37:45.243 dali odlučujuću prednost, 0:37:45.499,0:37:49.049 bez obzira na bilo kakav osjećaj[br]moralne obaveze da ga preferiraju, 0:37:49.049,0:37:52.062 drugim riječima, bez ikakvog vanjskog,[br]nezavisnog mjerila, 0:37:53.390,0:37:56.596 onda je to poželjnije zadovoljstvo.' 0:37:57.529,0:37:59.829 Što ljudi misle o tom argumentu? 0:38:01.549,0:38:02.889 Da li je djelotvoran? 0:38:03.489,0:38:05.833 Koliko vas misli da je djelotvoran 0:38:06.380,0:38:11.089 za diskusiju o razlikovanju između viših[br]i nižih zadovoljstava u terminima utilitarizma? 0:38:11.489,0:38:13.560 Koliko vas misli da nije djelotvoran? 0:38:17.789,0:38:19.691 Želim čuti vaše razloge. 0:38:20.829,0:38:25.414 Ali prije no što izložimo razloge,[br]napravit ćemo jedan pokus 0:38:26.329,0:38:29.178 u vezi Millove tvrdnje. 0:38:31.389,0:38:33.949 Da bismo mogli napraviti taj pokus 0:38:35.199,0:38:43.045 pogledat ćemo tri kratka isječka[br]popularne zabave. 0:38:44.889,0:38:47.230 Prvi je Hamletov monolog 0:38:48.170,0:38:52.939 iza kojeg slijede dva druga doživljaja. 0:38:55.420,0:38:56.609 Da vidimo što vi mislite. 0:38:57.709,0:38:59.677 'Kakvo je remek-djelo čovjek! 0:39:01.809,0:39:03.343 Kako plemenit umom! 0:39:04.359,0:39:06.429 Kako neograničen u sposobnostima! 0:39:06.749,0:39:10.609 U liku i pokretu kako je izražajan i divan! 0:39:10.899,0:39:14.409 U djelima kako sličan anđelu,[br]u mislima kako sličan Bogu! 0:39:14.949,0:39:17.837 Ljepota svijeta, uzor svim životinjama! 0:39:18.349,0:39:23.179 Pa ipak, što je za mene[br]ta kvintesencija prašine? 0:39:24.309,0:39:26.227 Čovjek mene ne očarava.' 0:39:41.909,0:39:45.576 'Zamislite svijet u kojem vaši najveći[br]strahovi postaju stvarnost. 0:39:47.069,0:39:51.929 Svaki show, šest natjecatelja iz cijele zemlje[br]bore se međusobno u tri ekstremne egzibicije. 0:39:52.609,0:39:58.421 Te egzibicije smišljene su kao izazovi[br]za natjecatelje, fizički i mentalno. 0:39:58.579,0:40:02.586 Šest natjecatelja, tri egzibicije, jedan pobjednik. 0:40:03.869,0:40:05.135 Fear Factor. 0:40:12.299,0:40:13.439 Simpsoni. 0:40:18.269,0:40:21.100 Flanders, otkad ti voliš kul stvari? 0:40:21.210,0:40:26.909 Pa, nije mi do brzine, ali obožavam tu zaštitnu[br]opremu, kacige, zaštitne šipke, zastavice. 0:40:26.909,0:40:30.896 Ja volim friški zrak i gledati jadnike[br]na terenu. 0:40:34.189,0:40:37.019 Dang Cletus, zašto si morao parkirati[br]pokraj mojih roditelja? 0:40:37.139,0:40:40.288 Ne draga, to su i moji roditelji. 0:40:55.759,0:40:58.929 Ne moram ni pitati[br]koji vam se najviše sviđao. 0:41:00.629,0:41:04.017 Simpsoni? Kome su se najviše sviđali Simpsoni? 0:41:05.109,0:41:06.715 Kome Shakespeare? 0:41:10.140,0:41:11.760 A Fear Factor? 0:41:11.860,0:41:13.929 Koliko vas više voli Fear Factor? 0:41:15.959,0:41:17.064 Stvarno? 0:41:21.279,0:41:24.639 Nadmoćnoj većini sviđaju se Simpsoni 0:41:25.769,0:41:29.229 više od Shakespearea. 0:41:29.459,0:41:32.732 U redu, uzmimo sad drugi dio glasača. 0:41:33.749,0:41:38.370 Koji doživljaj odnosno užitak je najviši? 0:41:39.409,0:41:42.179 Koliko ih kaže Shakespeare? 0:41:47.789,0:41:50.636 Koliko ih kaže Fear Factor? 0:41:54.189,0:41:56.559 Ne, vi se sigurno šalite. Ozbiljno? 0:42:01.039,0:42:02.339 Samo naprijed, recite. 0:42:02.709,0:42:04.391 Meni je to najzabavnije. 0:42:04.709,0:42:08.368 Znam, ali koji doživljaj je za vas najvredniji,[br]najplemenitiji. 0:42:08.368,0:42:10.570 Znam da vam je to najzabavnije. 0:42:10.920,0:42:17.553 Ako je nešto dobro samo zato što je ugodno,[br]zašto je važno da imate neku apstraktnu ideju 0:42:17.553,0:42:20.442 je li to dobro po mjerilima nekog drugog? 0:42:21.619,0:42:24.248 Znači vi izravno stajete na stranu Benthama. 0:42:25.039,0:42:28.099 Tko je taj koji će prosuditi?[br]I zašto bi morali prosuđivati? 0:42:28.969,0:42:33.570 Umjesto da samo registriramo i pribrojimo[br]de facto preferencije. U redu, pošteno. 0:42:33.880,0:42:35.149 Kako se vi zovete? 0:42:35.349,0:42:36.749 Nate? U redu, pošteno. 0:42:38.219,0:42:42.079 Koliko vas misli da su Simpsoni ustvari,[br]osim što vam se sviđaju, 0:42:42.219,0:42:46.982 da su ustvari doživljaj[br]više razine od Shakespearea? 0:42:47.410,0:42:49.419 Da vidimo ponovo[br]glasove za Shakespearea. 0:42:49.579,0:42:51.559 Koliko vas misli da je Shakespeare viši? 0:42:54.990,0:43:00.419 Idealno bi bilo da čujem nekoga ...[br]ima li koga tko misli da je Shakespeare najviši, 0:43:02.109,0:43:04.914 ali radije gleda Simpsone? 0:43:08.739,0:43:12.753 Samo sjediti i gledati Simpsone je zabavno[br]jer se šale i nasmijavaju nas, 0:43:13.750,0:43:16.379 ali netko nam mora reći [br]da je Shakespeare veliki pisac, 0:43:16.379,0:43:18.779 moramo naučiti kako ga čitati[br]i kako ga razumijeti, 0:43:18.779,0:43:22.689 moramo naučiti kako gledati Rembrandta,[br]kako analizirati sliku. 0:43:23.150,0:43:24.239 Kako se vi zovete? 0:43:24.239,0:43:25.120 Aneesha. 0:43:25.560,0:43:29.759 Aneesha, kad kažete da vam je netko[br]rekao da je Shakespeare bolji, 0:43:31.259,0:43:33.229 da li to prihvaćate 'na slijepo'? 0:43:33.379,0:43:39.199 Glasali ste da je Shakespeare bolji[br]samo zato jer vam to govori kultura ili učitelji? 0:43:39.279,0:43:43.162 Ili se zaista sami slažete s tim? 0:43:44.049,0:43:49.539 U odnosu na Shakesperea, ne,[br]ali ranije ste dali primjer Rembrandta 0:43:49.740,0:43:52.099 i mislim da bih više uživala[br]čitajući strip 0:43:52.099,0:43:56.672 nego što bih uživala analizirajući Rembrandta[br]zato jer mi je netko rekao da je veliki slikar. 0:43:57.139,0:44:03.089 Dakle vi sugerirate da bi nešto od toga[br]bilo kulturna konvencija i pritisak. 0:44:03.249,0:44:08.260 Rečeno nam je koje knjige,[br]koja umjetnička djela su velika. 0:44:08.576,0:44:09.570 Tko još? 0:44:15.309,0:44:18.990 Iako sam više uživao gledajući Simpsone,[br]ovaj čas na predavanju, 0:44:19.640,0:44:26.302 kad bih morao ostatak svog života provesti[br]s jednim od tri prikazana videa, 0:44:26.579,0:44:33.574 ne bih želio provesti taj ostatak svog života[br]gledajući zadnja dva videa. 0:44:33.800,0:44:37.770 Mislim da bih više zadovoljstva našao[br]u tome da budem u stanju 0:44:37.949,0:44:39.709 razvijati se u vlastitom umu 0:44:41.009,0:44:43.835 baveći se dubljim zadovoljstvima,[br]dubljim mislima. 0:44:44.869,0:44:46.100 Recite mi vaše ime. 0:44:46.280,0:44:47.080 Joe. 0:44:48.580,0:44:51.559 Joe, dakle kad bi morali[br]ostatak života provesti 0:44:51.759,0:44:59.879 na farmi u Kansasu samo sa Shakespearom[br]ili zbirkom epizoda Simpsona, 0:45:02.079,0:45:04.632 vi bi radije odabrali Shakespearea? 0:45:06.599,0:45:11.239 Što iz toga zaključujete [br]o testu John Stuart Milla? 0:45:12.149,0:45:14.628 Da test višeg zadovoljstva pokazuje 0:45:14.698,0:45:19.740 da li ljudi koji su doživjeli oba[br]preferiraju dotično. 0:45:21.509,0:45:23.480 Mogu li ukratko citirati drugi primjer? 0:45:23.880,0:45:28.020 Na neurobiologiji prošle godine[br]pričali su nam o pokusu sa štakorom 0:45:28.769,0:45:31.889 gdje je štakor mogao stimulirati[br]određeni centar u svom mozgu 0:45:32.029,0:45:35.753 tako da uzastopno doživljava[br]intenzivno zadovoljstvo. 0:45:35.879,0:45:38.460 Štakor nije jeo ni pio sve dok nije umro. 0:45:39.229,0:45:41.709 Štakor je očito doživljavao [br]intenzivno zadovoljstvo. 0:45:42.179,0:45:45.588 Pa sada, da me ovaj čas upitate[br]da li bih radije doživio intenzivno zadovoljstvo 0:45:46.270,0:45:49.530 ili imao cijeli život ispunjen[br]višim zadovoljstvom, 0:45:49.610,0:45:52.209 - intenzivno zadovoljstvo pritom smatram[br]nižim zadovoljstvom - 0:45:52.319,0:45:58.989 rado bih ovaj čas uživao u[br]intenzivnom zadovoljstvu - da, sigurno bi - 0:46:00.949,0:46:06.239 ali tokom cijelog života, mislim da bi se [br]većina ovdje složila 0:46:06.899,0:46:12.940 da bi radije bili ljudi s višim zadovoljstvom,[br]nego taj štakor s intenzivnim zadovoljstvom 0:46:13.160,0:46:14.799 u vrlo kratkom vremenskom periodu. 0:46:15.530,0:46:20.399 A odgovarajući na vaše pitanje,[br]to dokazuje da ... neću reći dokazuje, 0:46:21.349,0:46:29.409 mislim da je zaključak da Millova teorija[br]da ako se pita ljude što bi više voljeli, 0:46:31.439,0:46:36.100 većina će odgovoriti da bi radije[br]doživljavali više zadovoljstvo. 0:46:36.229,0:46:39.356 Dakle, vi mislite da to podržava ...[br]mislite da je Mill ovdje u pravu? 0:46:39.499,0:46:40.428 Da, mislim. 0:46:40.739,0:46:43.909 Ima li koga tko se ne slaže s Joeom, 0:46:44.169,0:46:49.968 i tko misli da naš eksperiment opovrgava[br]Millov test? 0:46:51.099,0:46:52.969 Pokazuje da to nije adekvatan način, 0:46:53.239,0:46:58.309 da ne možete raspoznati viša zadovoljstva[br]u okvirima utilitarizma. 0:47:05.109,0:47:08.199 Ako je uistinu dobro što god ljudi[br]preferiraju, 0:47:08.199,0:47:10.869 onda je to uistinu relativno i ne postoji[br]objektivna definicija. 0:47:11.519,0:47:14.548 U nekim društvima ljudi će preferirati[br]Simpsone. 0:47:16.229,0:47:18.070 Svatko može uživati u Simpsonima, 0:47:18.200,0:47:21.360 ali mislim da je zaista nužna edukacija[br]da se uživa u Shakespeareu. 0:47:21.450,0:47:26.029 Vi kažete da je potrebna edukacija[br]za uživanje u višim stvarima. 0:47:27.319,0:47:34.209 Millov stav je da viša zadovoljstva[br]zaista zahtijevaju kultivaciju i edukaciju. 0:47:35.090,0:47:36.639 On to ne osporava. 0:47:37.520,0:47:45.430 Ali jednom kad su kultivirani i educirani[br]ljudi će uvidjeti, 0:47:45.560,0:47:48.699 ne samo da će uvidjeti razliku[br]između viših i nižih zadovoljstava, 0:47:49.009,0:47:54.289 nego će zapravo preferirati [br]viša pred nižima. 0:47:55.849,0:47:58.739 Naći ćete taj čuveni citat John Stuart Milla: 0:47:59.419,0:48:04.738 'Bolje je biti nezadovoljno ljudsko biće,[br]nego zadovoljna svinja.' 0:48:05.819,0:48:09.589 Bolje nezadovoljni Sokrat,[br]nego zadovoljna budala. 0:48:10.539,0:48:19.472 A ako budala ili svinja misle drugačije, to je[br]zato jer znaju samo svoju stranu pitanja.' 0:48:20.700,0:48:27.302 Dakle, tu imate pokušaj razlikovanja[br]viših od nižih zadovoljstava, 0:48:28.719,0:48:33.875 odnosno između posjeta muzeju i[br]gledanja televizije uz bocu piva kod kuće. 0:48:34.709,0:48:38.890 Mill se slaže da ponekad možda[br]podliježemo iskušenju 0:48:40.710,0:48:44.339 da radimo ovo zadnje,[br]budemo TV ovisnici, 0:48:45.559,0:48:50.359 ali čak i kad to radimo[br]iz nemara i lijenosti, 0:48:50.680,0:48:56.180 mi znamo da zadovoljstvo koje osjećamo[br]zureći u Rembrandte u muzeju 0:48:56.800,0:48:58.629 ustvari je više 0:48:59.809,0:49:01.918 zato jer smo doživjeli oba. 0:49:03.190,0:49:06.339 A to i jeste više zadovoljstvo,[br]zurenje u Rembrandte, 0:49:06.490,0:49:09.809 zato jer angažira naše više[br]ljudske sposobnosti. 0:49:11.499,0:49:16.991 Što je s Millovim pokušajem da odgovori[br]na prigovor o pravima pojedinca? 0:49:18.890,0:49:22.689 Na neki način on koristi[br]istu vrstu argumenta. 0:49:25.329,0:49:27.679 A to je predstavljeno u poglavlju 5. 0:49:27.859,0:49:32.539 On kaže: 'Iako osporavam pretenzije[br]bilo koje teorije koja postavlja 0:49:32.539,0:49:36.454 imaginarni standard pravednosti[br]neutemeljen na korisnosti, ...' 0:49:39.719,0:49:45.419 Ali ipak, smatra da je pravednost[br]utemeljena na korisnosti, 0:49:45.999,0:49:53.529 glavni dio i neusporedivo najsvetiji [br]i obvezujući dio svake moralnosti ...' 0:49:54.599,0:49:58.799 Dakle, pravda jeste viša,[br]individualna prava imaju prednost, 0:49:59.769,0:50:04.169 ali ne iz razloga koji se razilaze[br]sa utilitarističkim postavkama. 0:50:04.540,0:50:08.449 'Pravednost je ime za određene[br]moralne zahtjeve 0:50:08.919,0:50:13.829 koji, na kolektivnoj razini, stoje [br]više na skali društvene korisnosti 0:50:14.309,0:50:22.180 i stoga predstavljaju mjerodavniju obavezu[br]od bilo koje druge.' 0:50:23.200,0:50:26.429 Dakle, pravednost je sveta, prvenstvena,[br]povlaštena. 0:50:26.530,0:50:30.243 To nije nešto što se može lako razmijeniti[br]za manje vrijedne stvari, 0:50:30.890,0:50:36.999 ali razlog je, u konačnici, tvrdi Mill,[br]utilitaristički razlog 0:50:37.569,0:50:42.029 Kad pogledate dugoročne interese[br]ljudske vrste, 0:50:43.529,0:50:46.589 svih nas kao progresivnih bića, 0:50:47.409,0:50:50.173 ako postupamo pravedno[br]i poštujemo prava, 0:50:50.689,0:50:54.329 društvu će kao cjelini biti bolje,[br]dugoročno gledano. 0:50:55.569,0:50:57.619 Je li to uvjerljivo? 0:50:57.999,0:51:05.588 Ili, da li Mills ustvari, ne priznajući to,[br]izlazi izvan utilitarističkih okvira 0:51:06.219,0:51:11.159 zalažući se za kvalitativno[br]viša zadovoljstva 0:51:12.789,0:51:17.349 i za sveta, odnosno posebno važna,[br]prava pojedinca? 0:51:18.479,0:51:20.999 Mi nismo u potpunosti odgovorili[br]na to pitanje 0:51:21.269,0:51:25.668 jer da bi se odgovorilo na to pitanje,[br]u slučaju prava i pravednosti, 0:51:26.259,0:51:31.859 nužno bi bilo istražiti druge načine,[br]ne-utilitarističke načine, 0:51:33.369,0:51:35.401 tumačenja osnove prava 0:51:36.479,0:51:39.459 i onda se zapitati da li [br]su valjana. 0:51:40.409,0:51:42.133 Što se tiče Jeremy Benthama, 0:51:42.949,0:51:48.739 koji je lansirao utilitarizam[br]kao doktrinu i moralnu i pravnu filozofiju, 0:51:49.979,0:51:53.269 Bentham je umro 1832. [br]u dobi od 85 godina, 0:51:53.819,0:51:57.509 ali ako odete u London[br]možete ga i danas posjetiti, doslovno. 0:51:58.729,0:52:02.828 U svojoj oporuci pobrinuo se[br]da njegovo tijelo bude konzervirano, 0:52:03.390,0:52:06.751 balzamirano i izloženo [br]na sveučilištu University of London 0:52:07.739,0:52:14.267 gdje još uvijek zasjeda u staklenoj vitrini[br]s voštanom glavom u svojoj stvarnoj odjeći. 0:52:14.989,0:52:20.689 Vidite, prije no što je umro Bentham si je[br]postavio pitanje sukladno svojoj filozofiji, 0:52:22.339,0:52:25.839 od kakve koristi bi mrtav čovjek[br]mogao biti živima? 0:52:26.839,0:52:30.263 Jedna korist, rekao je, bila bi staviti[br]svoj leš na raspolaganje 0:52:30.499,0:52:32.113 za studiranje anatomije. 0:52:33.519,0:52:35.841 U slučaju velikih filozofa, međutim, 0:52:37.129,0:52:43.619 još je bolje sačuvati svoju fizičku prisutnost[br]kao inspiraciju budućim generacijama mislilaca. 0:52:44.599,0:52:47.298 Želite vidjeti kako izgleda punjeni Bentham? 0:52:47.419,0:52:48.440 Ovako izgleda. 0:52:53.549,0:52:56.154 Ako pogledate pažljivo,[br]primjetit ćete 0:52:57.459,0:53:04.970 da balzamiranje njegove stvarne glave[br]nije baš uspjelo pa su je zamijenili voštanom, 0:53:06.910,0:53:13.789 a na dnu radi vjerodostojnosti[br]možete vidjeti njegovu pravu glavu na tanjuru. 0:53:16.529,0:53:17.319 Vidite? 0:53:17.809,0:53:18.910 Ovdje. 0:53:22.159,0:53:24.360 Pa, koja je pouka priče? 0:53:25.709,0:53:26.959 Pouka priče ... 0:53:29.499,0:53:33.341 Usput, vade ga za vrijeme zasjedanja vijeća[br]na University College London, 0:53:33.699,0:53:37.444 a u zapisniku ga bilježe kao prisutnog[br]bez prava glasa. 0:53:40.079,0:53:49.799 Ovdje je filozof u životu i smrti[br]koji se držao principa svoje filozofije. 0:53:49.900,0:53:52.260 Idući puta nastavit ćemo s pravima.