0:00:03.570,0:00:06.570 Pravednost Michael Sandel 0:00:06.510,0:00:11.850 Ima li život cijenu? 0:00:32.850,0:00:35.290 Prošli puta diskutirali smo o[br]slučaju Karljica protiv Dudleya i Stephensa, 0:00:35.290,0:00:39.400 0:00:39.400,0:00:45.970 slučaj u čamcu za spasavanje,[br]slučaj kanibalizma na moru, 0:00:45.970,0:00:48.420 i s imajući na umu argumente[br]slučaja čamca za spasavanje, 0:00:48.420,0:00:49.369 0:00:49.369,0:00:53.750 argumente za i protiv onoga[br]što su učinili Dudley i Stephens, 0:00:53.750,0:00:56.890 0:00:56.890,0:00:58.480 vratimo se na utilitarističku filozofiju[br]Jeremya Benthama. 0:00:58.480,0:01:02.059 0:01:02.060,0:01:06.130 Bentham je rođen u Engleskoj 1748., 0:01:06.130,0:01:09.740 sa 12 godina pohađao je Oxford,[br]sa 15 se upisao na pravni fakultet. 0:01:09.740,0:01:15.060 Sa 19 primljen je u Odvjetničku komoru,[br]ali nikada se nije bavio pravom, 0:01:15.060,0:01:17.470 umjesto toga posvetio je život[br]filozofiji prava i filozofiji morala. 0:01:17.470,0:01:19.920 0:01:19.920,0:01:22.170 0:01:22.170,0:01:27.690 Prošli puta počeli smo razmatrati[br]Benthamovu verziju utilitarizma. 0:01:27.690,0:01:28.810 Glavna ideja, sažeto sročena,[br]je ova: 0:01:28.810,0:01:32.870 najviši princip morala,[br]bilo osobnog ili političkog morala, 0:01:32.870,0:01:35.750 0:01:35.750,0:01:38.909 0:01:38.909,0:01:40.260 je maksimiziranje općeg dobra 0:01:40.260,0:01:42.520 0:01:42.520,0:01:44.390 0:01:44.390,0:01:46.560 ili kolektivne sreće, 0:01:46.560,0:01:50.070 ili ukupne ravnotežu zadovoljstva i boli 0:01:50.070,0:01:52.210 u izrazu maksimizirane korisnosti. 0:01:52.210,0:01:53.210 0:01:53.210,0:01:56.419 0:01:56.420,0:02:00.750 Bentham dolazi do tog principa[br]rasuđujući na sljedeći način: 0:02:00.750,0:02:03.150 svima nama upravljaju bol i zadovoljstvo, 0:02:03.150,0:02:09.009 oni su naši suvereni gospodari,[br]pa ih svaki moralni sistem mora uzeti u obzir. 0:02:09.008,0:02:10.999 Kako ih najbolje uzeti u obzir? 0:02:10.999,0:02:14.209 Maksimiziranjem 0:02:14.209,0:02:15.739 i to vodi principu[br]'najvećeg dobra za najveći broj'. 0:02:15.739,0:02:19.449 0:02:19.449,0:02:23.029 Što bismo točno trebali maksimizirati? 0:02:23.029,0:02:24.698 Bentham nam govori - sreću 0:02:24.699,0:02:25.510 0:02:25.510,0:02:27.728 ili, preciznije, korisnost. 0:02:27.729,0:02:29.479 0:02:29.479,0:02:34.239 Maksimiziranje korisnosti nije najvažnije[br]samo za pojedince, već i za zajednice 0:02:34.239,0:02:36.569 i zakonodavce. 0:02:36.569,0:02:38.749 Na koncu, što je zajednica?[br]- pita Bentham. 0:02:38.749,0:02:41.359 0:02:41.359,0:02:45.309 To je suma pojedinaca koji ju sačinjavaju. 0:02:45.309,0:02:46.780 I zbog toga, u odlučivanju o najboljim politikama[br]i što bi trebao biti zakon, 0:02:46.780,0:02:53.370 u odlučivanju što je pravedno, 0:02:53.370,0:02:59.029 građani i zakonodavci bi se trebali[br]zapitati: 0:02:59.029,0:03:03.870 Ako zbrojimo sve korisnosti ove politike 0:03:03.870,0:03:05.290 i oduzmemo sve troškove, 0:03:05.290,0:03:08.828 0:03:08.829,0:03:10.669 ispravna stvar koju treba učiniti[br]je ona 0:03:10.669,0:03:11.779 0:03:11.779,0:03:13.439 koja maksimizira ravnotežu[br]sreće nad patnjom. 0:03:13.439,0:03:14.698 0:03:14.699,0:03:16.020 0:03:16.020,0:03:20.869 0:03:20.869,0:03:24.039 To znači maksimizirati korisnost. 0:03:24.039,0:03:24.988 Danas želim ustanoviti da li se vi[br]slažete s tim ili ne. 0:03:24.989,0:03:28.189 0:03:28.189,0:03:31.150 0:03:31.150,0:03:36.650 A ta utilitarna logika često dolazi[br]pod nazivom analiza troškova i koristi 0:03:36.650,0:03:39.719 koju koriste kompanije i vlade[br]cijelo vrijeme. 0:03:39.719,0:03:41.219 0:03:41.219,0:03:41.978 0:03:41.979,0:03:43.729 0:03:43.729,0:03:45.239 0:03:45.239,0:03:50.789 A ono što ona uključuje je[br]pridjeljivanje vrijednosti, 0:03:50.789,0:03:53.289 obično dolarske vrijednosti, [br]za korisnost 0:03:53.289,0:03:56.539 troškova i koristi[br]u vezi raznih prijedloga. 0:03:56.539,0:03:58.879 Nedavno je u Republici Češkoj 0:03:58.879,0:04:03.370 predstavljen prijedlog za povećanje [br]poreza na trošarinu za pušenje. 0:04:03.370,0:04:05.089 Philip Morris, duhanska kompanija, 0:04:05.089,0:04:08.219 0:04:08.219,0:04:09.779 ostvaruje veliku dobit[br]u Republici Češkoj. 0:04:09.779,0:04:12.509 Oni su naručili studiju analize[br]troškova i koristi 0:04:12.509,0:04:15.429 pušenja u Republici Češkoj. 0:04:15.430,0:04:16.789 0:04:16.789,0:04:18.678 0:04:18.678,0:04:20.899 I ono što je ustanovila ta studija[br]analize troškova i koristi, 0:04:20.899,0:04:22.830 0:04:22.830,0:04:23.550 0:04:23.550,0:04:25.660 je da vlada ostvaruje dobit[br]zahvaljujući pušenju čeških građana. 0:04:25.660,0:04:27.349 0:04:27.349,0:04:30.779 0:04:30.779,0:04:32.360 Pa, kako ostvaruju dobit? 0:04:32.360,0:04:36.189 Istina je da postoje negativni učinci[br]za financije češke vlade, 0:04:36.189,0:04:40.000 0:04:40.000,0:04:45.039 zbog povećanih troškova zdravstva[br]za ljude koji pate od bolesti povezanih s pušenjem, 0:04:45.039,0:04:47.239 0:04:47.239,0:04:50.369 s druge strane postoje pozitivni učinci, 0:04:50.369,0:04:51.620 0:04:51.620,0:04:53.099 a to su, pribrojeni na drugoj strani bilance, 0:04:53.099,0:04:55.378 0:04:55.379,0:05:01.960 pozitivni učinci su uključivali, [br]najvećim dijelom, 0:05:01.960,0:05:06.239 razne porezne prihode koje vlada[br]ostvaruje od prodaje cigareta, 0:05:06.240,0:05:09.530 no također su uključivali uštede[br]u zdravstvu kad ljudi umiru ranije, 0:05:09.530,0:05:13.339 uštede na penzijama - ne morate plaćati[br]penzije tako dugo - 0:05:13.339,0:05:14.889 i također uštede u domovima za starije. 0:05:14.889,0:05:19.679 0:05:19.679,0:05:24.539 I kad su bili sumirani svi troškovi i koristi, 0:05:24.539,0:05:25.969 studija Philip Morrisa je ustanovila 0:05:25.969,0:05:27.870 0:05:27.870,0:05:32.610 da je neto dobit javnih financija[br]u Republici Češkoj 0:05:32.610,0:05:36.449 147 milijuna dolara, 0:05:36.449,0:05:38.120 a u odnosu na uštede u smještaju[br]i zdravstvenoj skrbi i troškovima za mirovine 0:05:38.120,0:05:41.479 vlada je uštedila preko 1200 dolara za[br]svaku osobu koja prerano umre zbog pušenja. 0:05:41.479,0:05:46.570 0:05:46.570,0:05:52.569 0:05:52.569,0:05:56.740 Analiza troškova i koristi. 0:05:56.740,0:06:01.729 Oni od vas koji brane utilitarizam[br]mogli bi pomisliti da ovaj test nije fer. 0:06:01.729,0:06:03.389 0:06:03.389,0:06:09.130 Philip Morris je bio razapet u štampi[br]i objavio je ispriku za ovu bezdušnu kalkulaciju. 0:06:09.130,0:06:10.990 0:06:10.990,0:06:12.319 Mogli biste reći da je ono što[br]ovdje nedostaje 0:06:12.319,0:06:17.119 nešto što utilitaristi mogu lako[br]ugraditi, napose 0:06:17.119,0:06:19.339 0:06:19.339,0:06:23.430 vrijednost za osobu i obitelji[br]onih koji umiru od raka pluća. 0:06:23.430,0:06:25.599 0:06:25.599,0:06:29.190 A što je sa vrijednošću života? 0:06:29.190,0:06:33.099 Neke analize troškova i koristi[br]sadržavaju mjeru za vrijednost života. 0:06:33.099,0:06:34.560 0:06:34.560,0:06:36.809 0:06:36.809,0:06:41.330 Jedna od najpoznatijih je slučaj [br]Ford Pinto automobila. 0:06:41.330,0:06:45.008 Je li itko čitao o tome?[br]To je bilo 1970.-tih. 0:06:45.009,0:06:48.210 Sjećate se da je Ford Pinto[br]bio marka automobila? 0:06:48.210,0:06:51.029 Itko? 0:06:51.029,0:06:55.879 To je bio mali auto, kompakt klase,[br]vrlo popularan, 0:06:55.879,0:06:58.059 ali imao je jedan problem, a to je[br]da je rezervoar za gorivo bio straga 0:06:58.059,0:07:01.959 0:07:01.959,0:07:07.960 i kod udarca u stražnji dio [br]rezervoar bi eksplodirao 0:07:07.960,0:07:10.210 i neki ljudi su poginuli,[br]a neki ozbiljno povrijeđeni. 0:07:10.210,0:07:14.349 0:07:14.349,0:07:18.998 Žrtve tih nesreća tužile su Ford, 0:07:18.999,0:07:21.669 a na suđenju se ispostavilo 0:07:21.669,0:07:24.030 da je Ford odavno znao[br]za riskantnost rezervoara za gorivo 0:07:24.030,0:07:25.248 0:07:25.249,0:07:27.719 0:07:27.719,0:07:33.599 i da je napravio analizu troškova i dobiti[br]kako bi ustanovio da li bi se isplatilo 0:07:33.599,0:07:36.300 ugraditi posebni štit 0:07:36.300,0:07:40.490 koji bi zaštito rezervoar[br]i spriječio da eksplodira. 0:07:40.490,0:07:42.979 Napravilu su analizu troškova i koristi; 0:07:42.979,0:07:46.318 cijena po komadu za povećanje[br]sigurnosti Pinta 0:07:46.319,0:07:48.239 0:07:48.239,0:07:50.299 0:07:50.299,0:07:55.688 izračunali su da iznosti 11 dolara[br]po komadu. 0:07:55.689,0:07:57.189 0:07:57.189,0:08:00.609 A ovo je analiza troškova i koristi[br]koja se pojavila na suđenju, 0:08:00.609,0:08:03.089 0:08:03.089,0:08:05.960 11 dolara po komadu[br]za 12,5 milijuna automobila i kamiona 0:08:05.960,0:08:09.998 iznosi ukupno 137 milijuna dolara[br]za povećanje sigurnosti. 0:08:09.999,0:08:13.559 0:08:13.370,0:08:17.370 0:08:17.370,0:08:18.789 A onda su izračunali koristi od ulaganja[br]tog novca u sigurniji auto. 0:08:18.789,0:08:20.139 0:08:20.139,0:08:23.300 0:08:23.300,0:08:26.800 Prebrojali su 180 smrti[br]i pridijelili dolarsku vrijednost: 0:08:26.800,0:08:28.749 200 tisuća dolara po jednoj smrti. 0:08:28.749,0:08:30.449 0:08:30.449,0:08:32.490 0:08:32.490,0:08:35.250 180 povreda - 67 tisuća dolara; 0:08:35.250,0:08:37.490 0:08:37.490,0:08:38.909 i onda troškovi popravka i zamjene[br]za 2000 vozila, 0:08:38.909,0:08:43.289 koji bi bili uništeni bez tog zaštitnog dijela, 0:08:43.289,0:08:45.030 700 dolara po vozilu. 0:08:45.030,0:08:48.060 0:08:48.060,0:08:50.390 Tako se pokazalo da bi koristi[br]iznosile samo 49,5 milijuna 0:08:50.390,0:08:53.930 0:08:53.930,0:08:55.270 i stoga nisu ugradili tu zaštitu. 0:08:55.270,0:08:56.329 0:08:56.330,0:08:58.140 0:08:58.140,0:08:59.840 Nepotrebno je napominjati 0:08:59.840,0:09:01.740 da kad se taj memo o analizi troškova i koristi[br]kompanije Ford Motor Company 0:09:01.160,0:09:09.160 pojavio na suđenju, 0:09:09.160,0:09:11.250 zapanjio je porotnike,[br]koji su dosudili goleme odštete. 0:09:11.250,0:09:15.950 0:09:15.950,0:09:21.810 Je li to protuprimjer za [br]utilitarističku ideju izračuna? 0:09:21.810,0:09:23.040 Jer Ford je uključio mjeru[br]za vrijednost života. 0:09:23.040,0:09:27.319 0:09:27.320,0:09:30.770 Tko bi od vas želio braniti[br]analizu troškova i koristi 0:09:30.770,0:09:33.240 u ovom očitom protuprimjeru? 0:09:33.240,0:09:35.320 0:09:35.320,0:09:38.720 Tko ima obranu? 0:09:38.720,0:09:41.590 Ili mislite da to u potpunosti ruši[br]cijeli utiilitaristički račun? 0:09:41.590,0:09:47.410 0:09:47.410,0:09:48.760 Ja mislim da su opet napravili isti grešku[br]kao u prethodnom slučaju 0:09:48.760,0:09:53.210 pridijelivši dolarsku vrijednost ljudskom životu[br]ne uzimajući u obzir stvari poput 0:09:53.210,0:09:56.570 0:09:56.570,0:10:00.580 patnje i emocionalnih gubitaka obitelji, 0:10:00.580,0:10:03.980 koje su izgubile prihode, ali i svoje voljene, 0:10:03.980,0:10:06.820 a to vrijedi više od 200 tisuća dolara. 0:10:06.820,0:10:09.170 Čekajte, kako se vi zovete? 0:10:09.170,0:10:10.479 Julie Roto. 0:10:10.480,0:10:14.400 Pa, Julie, ako 200 tisuća preniska cifra 0:10:14.400,0:10:18.660 jer ne uključuje gubitak voljenih[br]i gubitak svih tih godina života, 0:10:18.660,0:10:21.660 0:10:21.660,0:10:23.980 što mislite, koji bi broj bio točniji? 0:10:23.980,0:10:27.290 0:10:27.290,0:10:32.430 Ne vjerujem da mogu dati broj, 0:10:32.430,0:10:33.560 mislim da se taka vrsta analize ne bi smjela[br]koristiti u pitanjima ljudskog života. 0:10:33.560,0:10:36.199 Mislim da se to ne može izraziti novčano. 0:10:36.200,0:10:39.270 Dakle, oni ne samo da su stavili[br]premalu brojku, 0:10:39.270,0:10:44.510 kaže Julie, nego su pogriješili[br]uopće stavljajući bilo koji broj. 0:10:44.510,0:10:49.540 U redu, da čujemo nekoga tko ... 0:10:49.540,0:10:51.860 Morate uzeti u obzir inflaciju? 0:10:57.700,0:10:59.130 U redu, pošteno. 0:10:59.130,0:11:00.050 0:11:00.050,0:11:02.660 Pa koji bi to onda broj sada bio? 0:11:02.660,0:11:07.640 To je bilo prije 35 godina. 0:11:07.640,0:11:10.330 Dva milijuna dolara? 0:11:10.330,0:11:12.030 Vi bi stavili dva milijuna? 0:11:12.030,0:11:14.079 A kako se vi zovete? 0:11:14.080,0:11:15.410 Voicheck. 0:11:15.410,0:11:17.329 Voicheck kaže, moramo[br]uzeti u obzir inflaciju 0:11:17.330,0:11:19.640 Trebali bi biti velikodušniji. 0:11:19.640,0:11:25.170 Bi li tada smatrali da je ovo ispravan način[br]razmišljanja o tom pitanju? 0:11:25.170,0:11:27.310 Pretpostavljam, nažalost tu negdje[br]treba staviti broj, 0:11:27.310,0:11:29.589 nisam siguran koji bi to broj bio,[br]ali se slažem da bi se mogao staviti broj 0:11:29.590,0:11:32.980 na ljudski život. 0:11:32.980,0:11:37.330 0:11:37.330,0:11:39.490 0:11:39.490,0:11:41.060 0:11:41.060,0:11:42.439 U redu. Dakle Voicheck kaže, 0:11:42.440,0:11:44.420 0:11:44.420,0:11:46.280 i tu se ne slaže s Julie, ... 0:11:46.280,0:11:46.649 0:11:46.649,0:11:49.750 Julie kaže, ne možemo staviti broj na[br]ljudski život u svrhu analize troškova i koristi. 0:11:49.750,0:11:53.670 Voicheck kaže - moramo[br]jer moramo donositi odluke, nekako. 0:11:53.670,0:11:59.870 0:11:59.870,0:12:04.750 Što drugi misle o tome? 0:12:04.750,0:12:06.270 Je li itko ovdje spreman braniti analizu[br]troškova i koristi? 0:12:06.270,0:12:09.810 Kao točnu i poželjnu? 0:12:09.810,0:12:16.000 Ja mislim kad Ford i druge auto kompanije[br]ne bi koristile analizu troškova i koristi 0:12:16.000,0:12:18.949 na koncu bi propale jer ne bi mogle[br]biti profitabilne 0:12:18.949,0:12:23.139 i milijuni ljudi ne bi mogli koristiti[br]njihove aute za odlazak na posao 0:12:23.139,0:12:27.939 kako bi prehranili svoju djecu. 0:12:27.939,0:12:29.699 Zato mislim da ako se ne [br]koristi analiza troškova i dobiti 0:12:29.700,0:12:31.870 žrtvuje se opće dobro u tom slučaju. 0:12:31.870,0:12:34.810 Dobro, da vas pitam[br]kako se zovete? 0:12:34.810,0:12:37.599 Raul. 0:12:37.600,0:12:41.760 Raul, nedavno je provedena studija[br]o upotrebi mobitela u autu za vrijeme vožnje 0:12:41.760,0:12:43.090 0:12:43.090,0:12:47.080 i vodi se diskusija o tome[br]treba li to zabraniti 0:12:47.080,0:12:48.660 0:12:48.660,0:12:50.689 Procjena je da oko 2000 ljudi[br]umire u nesrećama svake godine 0:12:50.690,0:12:54.990 zbog korištenja mobitela. 0:12:54.990,0:12:57.280 0:12:57.280,0:12:59.240 0:12:59.240,0:13:02.120 0:13:02.120,0:13:07.860 a ipak analiza troškova i koristi koju je[br]napravio Centar za analizu rizika na Harvardu 0:13:07.860,0:13:10.520 ustanovila je da ako pogledate [br]prednosti korištenja mobitela 0:13:10.520,0:13:13.560 0:13:13.560,0:13:15.089 i procijenite vrijednost života,[br]dođe skoro na isto 0:13:15.090,0:13:19.050 0:13:19.050,0:13:23.290 zbog goleme ekonomske korisnosti[br]omogućavanja ljudima da iskoriste vrijeme, 0:13:23.290,0:13:27.370 da ne gube vrijeme, da mogu ugovarati poslove[br]i razgovarati s prijateljima i tako dalje 0:13:27.370,0:13:30.370 za vrijeme vožnje. 0:13:30.370,0:13:32.060 Ne sugerira li to da je pogrešno[br]ljudski život vrednovati novčanim iznosima? 0:13:32.060,0:13:35.619 0:13:35.620,0:13:37.590 0:13:37.590,0:13:39.330 Pa, ja mislim da ako velika većina ljudi 0:13:39.330,0:13:41.780 0:13:41.780,0:13:47.569 pokušava izvući maksimum korisnosti[br]iz usluge kao što je upotreba mobitela 0:13:47.570,0:13:47.989 i pogodnosti koju pružaju mobiteli, 0:13:47.989,0:13:50.400 tada je žrtva nužna 0:13:50.400,0:13:52.160 da bi ljudi bili zadovoljni. 0:13:52.160,0:13:53.230 0:13:53.230,0:13:59.200 Vi ste otvoreno utilitarista. 0:13:59.200,0:14:02.820 Da. 0:14:02.820,0:14:05.810 Zadnje pitanje Raul, 0:14:05.810,0:14:07.829 a postavio sam ga i Voichecku. 0:14:07.829,0:14:12.870 Koliko bi morala biti cijena ljudskog života[br]u dolarima da bi se zabranilo korištenje mobitela? 0:14:12.870,0:14:14.640 Ne želim proizvoljno računati brojke[br]ovoga časa... 0:14:14.640,0:14:16.199 0:14:16.200,0:14:18.140 0:14:18.140,0:14:19.370 0:14:21.350,0:14:23.610 Želite li to uzeti u razmatranje? 0:14:23.610,0:14:24.790 Da, uzet ću to ... 0:14:24.790,0:14:28.689 Ali ugrubo koliko bi to bilo?[br]Imate 2300 smrti, 0:14:28.690,0:14:32.400 morate odrediti dolarsku vrijednost[br]da biste znali želite li spriječiti te smrti 0:14:32.400,0:14:37.069 zabranom upotrebe mobitela u autima. 0:14:37.070,0:14:38.900 Pa, koje bi bilo vaše nagađanje? 0:14:38.900,0:14:40.350 Koliko? 0:14:40.350,0:14:40.799 Milijun, dva milijuna? 0:14:40.799,0:14:42.280 0:14:42.280,0:14:44.410 Dva milijuna je bila Voitechova cifra. 0:14:44.410,0:14:46.120 Je li to otprilike točno? 0:14:46.120,0:14:50.500 Možda milijun. 0:14:50.500,0:14:55.110 Milijun?! 0:14:55.110,0:15:00.440 Dobro je, hvala. 0:15:00.440,0:15:01.859 To su neke kontraverze koje proizlaze[br]iz analize troškova i koristi, 0:15:01.859,0:15:06.770 posebno one koje uključuju pridjeljivanje[br]dolarske vrijednosti svemu što ulazi u zbroj. 0:15:06.770,0:15:08.840 Sada bih se želio okrenuti vašim prigovorima, 0:15:08.840,0:15:15.110 vašim prigovorima ne nužno na[br]analizu troškova i koristi izričito, 0:15:15.110,0:15:18.400 jer to je samo jedna verzija[br]utilitarističke logike u današnjoj praksi, 0:15:18.400,0:15:21.959 0:15:21.960,0:15:26.830 nego na teoriju u cjelini, 0:15:26.830,0:15:30.000 ideji da je ispravni postupak, 0:15:30.000,0:15:33.710 pravedna osnova za politiku i zakon, 0:15:33.710,0:15:35.559 maksimiziranje korisnosti. 0:15:35.559,0:15:39.750 0:15:39.750,0:15:41.590 Koliko vas se ne slaže[br]s utilitarističkim pristupom 0:15:41.590,0:15:43.359 0:15:43.359,0:15:44.330 0:15:44.330,0:15:46.390 zakonu i općem dobru? 0:15:46.390,0:15:48.480 0:15:48.480,0:15:52.230 Koliko vas se slaže? 0:15:52.230,0:15:55.200 Dakle više vas je koji se slažu[br]ngo onih koji se ne slažu. 0:15:55.200,0:15:59.560 Pa da čujemo kritičare. 0:15:59.560,0:16:02.209 Moj glavni problem s tim je da mi se čini[br]da ne možete reći ... 0:16:02.209,0:16:06.280 samo zato što je netko u manjini,[br]da su njegove želje i potrebe manje vrijedne 0:16:06.280,0:16:11.650 nego onih koji su u većini. 0:16:11.650,0:16:14.189 Pretpostavljam da imam problem [br]s idejom da je 0:16:14.190,0:16:16.099 'najveće dobro za najveći broj' u redu[br]jer što je onda s ljudima kojih je manji broj, 0:16:16.099,0:16:18.070 0:16:18.070,0:16:21.040 0:16:21.040,0:16:24.719 To nije fer prema njima jer nemaju[br]pravo glasa o tome što oni žele. 0:16:24.720,0:16:25.840 0:16:25.840,0:16:28.880 To je zanimljiv prigovor, vi brinete[br]o učinku na manjinu? 0:16:28.880,0:16:32.460 Da. 0:16:32.460,0:16:34.940 Usput, kako se zovete? 0:16:34.940,0:16:39.819 Anna. 0:16:39.819,0:16:41.689 Tko ima odgovor na Anninu brigu[br]za učinak na manjinu? 0:16:41.690,0:16:42.540 Što kažete Anni? 0:16:42.540,0:16:47.490 Ona kaže da manjine vrijede manje.[br]Ja mislim da to nije slučaj 0:16:47.490,0:16:51.339 jer pojedinci u manjini vrijede[br]sasvim jednako kao pojedinci u većini. 0:16:51.339,0:16:54.520 Samo je stvar u tome da brojevi[br]prevladavaju manjinu. 0:16:54.520,0:16:55.670 0:16:55.670,0:16:58.919 U određenom trenutku morate donijeti odluku, 0:16:58.919,0:17:01.510 žao mi je manjine, ali ponekad[br]je to za veće dobro. 0:17:01.510,0:17:02.640 0:17:02.640,0:17:03.670 0:17:03.670,0:17:08.839 Za veće dobro. Anna, što vi kažete?[br]Vaše ime? 0:17:08.839,0:17:10.839 Youngda. 0:17:10.839,0:17:13.589 Youngda kaže morate samo zbrojiti[br]preferencije ljudi, 0:17:13.589,0:17:17.698 a oni preferencije onih u manjini[br]zaista se mjere. 0:17:17.699,0:17:22.000 Možete li dati neki primjer[br]za ono što vas brine 0:17:22.000,0:17:24.880 kad kažete da ste zabrinuti da utilitarizam[br]krši interes i uvažavanje manjine? 0:17:24.880,0:17:27.970 0:17:27.970,0:17:29.730 Možete li dati neki primjer? 0:17:29.730,0:17:35.179 Pa u odnosu na svaki od slučajeva[br]o kojima smo govorili, poput brodoloma, 0:17:35.179,0:17:36.450 mislima da je dječak koji pojeden ipak[br]imao jednako pravo na život kao i drugi ljudi, 0:17:36.450,0:17:39.700 0:17:39.700,0:17:39.980 0:17:39.980,0:17:43.560 0:17:43.560,0:17:44.710 a samo zato što je bio 'manjina'[br]u tom slučaju, 0:17:44.710,0:17:45.980 onaj koji je možda imao manje šanse[br]da nastavi živjeti, 0:17:48.120,0:17:50.610 0:17:50.610,0:17:53.459 0:17:53.460,0:17:54.870 to ne znači da drugi automatski[br]imaju pravo da ga pojedu 0:17:54.870,0:17:58.449 0:17:58.450,0:17:59.680 samo zato jer bi to većem broju ljudi[br]pružilo šansu da preživi. 0:17:59.680,0:18:01.849 0:18:01.849,0:18:03.290 0:18:03.290,0:18:05.740 Dakle, možda postoje određena prava[br]koja imaju manjine odnosno pojedinac 0:18:05.740,0:18:07.850 0:18:07.850,0:18:12.550 koja ne bi smjela biti razmjenjivana[br]u ime korisnosti? 0:18:12.550,0:18:14.399 0:18:14.400,0:18:16.520 0:18:16.520,0:18:18.210 Da, Anna? 0:18:18.210,0:18:21.990 Ovo bi bio test za vas. 0:18:21.990,0:18:24.550 U drevnom Rimu bacali su kršćane lavovima[br]u koloseumu iz sporta. 0:18:24.550,0:18:29.510 0:18:29.510,0:18:33.890 Ako razmislite o načinu [br]utilitarističkog računanja - 0:18:33.890,0:18:38.770 da, krščanin bačen lavu proživljava[br]ogromni neipodnošljivi bol, 0:18:38.770,0:18:45.770 ali pogledajte kolektivnu ekstazu Rimljana! 0:18:48.460,0:18:50.580 Youngda. 0:18:50.580,0:18:51.889 Pa, u to vrijeme ... 0:18:51.890,0:18:53.250 0:18:54.920,0:19:01.710 U moderno vrijeme, uzimajući u obzir[br]radost pruženu ljudima koji gledaju, 0:19:01.710,0:19:02.900 0:19:02.900,0:19:05.300 0:19:05.300,0:19:07.490 mislim da niti jedan kreator politike[br]ne bi rekao da je patnja jednog čovjeka puno ... 0:19:07.490,0:19:11.390 0:19:11.390,0:19:14.680 u usporedbi sa radošću koju donosi ... 0:19:14.680,0:19:20.460 Ne, ali morate priznati da u slučaju da je[br]dovoljan broj Rimljana bio izbezumljen od sreće 0:19:20.460,0:19:25.220 to bi prevladalo nad čak i najužasniju bol[br]nekolicine kršćana bačenih lavovima. 0:19:25.220,0:19:28.600 0:19:28.600,0:19:33.570 Dakle, zaista ovdje imamo[br]dva različita prigovora utilitarizmu. 0:19:33.570,0:19:35.030 Jedan se odnosi na primjereno [br]poštovanje ljudskih prava odnosno prava manjina. 0:19:35.030,0:19:37.850 0:19:37.850,0:19:39.559 0:19:39.559,0:19:40.740 0:19:40.740,0:19:42.500 0:19:42.500,0:19:45.150 A drugi se odnosi na cijelu ideju objedinjavanja[br]korisnosti ili preferencija ili vrijednosti. 0:19:45.150,0:19:46.940 0:19:46.940,0:19:48.980 0:19:48.980,0:19:49.900 0:19:49.900,0:19:51.610 0:19:51.610,0:19:53.070 0:19:53.070,0:19:56.470 Da li je moguće objediniti sve vrijednosti[br]i prevesti ih u dolarsku vrijednost? 0:19:56.470,0:19:58.050 0:19:58.050,0:20:00.360 0:20:00.360,0:20:02.479 1930.-ih bio je jedan psiholog[br]koji pokušao govoriti o drugom pitanju, 0:20:02.480,0:20:07.000 0:20:07.000,0:20:09.190 0:20:09.190,0:20:10.840 0:20:10.840,0:20:12.370 0:20:12.370,0:20:15.850 pokušao je dokazati ono što[br]utilitarizam pretpostavlja, 0:20:15.850,0:20:18.530 0:20:18.530,0:20:22.040 da je zaista moguće prevesti[br]sve robe, sve vrijednosti, 0:20:22.040,0:20:23.230 sve do čega je ljudima stalo, 0:20:23.230,0:20:27.309 0:20:27.309,0:20:28.908 u jedinstvenu uniformnu mjeru, 0:20:28.909,0:20:30.230 a to je učinio tako da je proveo anketu[br]među mladim primateljima socijalne pomoći. 0:20:30.230,0:20:32.660 0:20:32.660,0:20:37.610 To je bilo 1930. -te. 0:20:37.610,0:20:42.000 Dao im je listu neugodnih doživljaja 0:20:42.000,0:20:45.360 i pitao ih, 'Koliko bi trebali biti plaćeni[br]da pristanete proživjeti ove stvari?' 0:20:45.360,0:20:49.899 I vodio je bilješke. 0:20:49.900,0:20:51.040 Na primjer, 'Koliko biste morali biti plaćeni[br]da pristanete na vađenje prednjeg gornjeg zuba?' 0:20:51.040,0:20:57.240 0:20:57.240,0:21:04.240 ili 'Koliko bi trebali biti plaćeni da pristanete[br]da vam se odsječe jedan mali nožni prst?' 0:21:05.030,0:21:11.649 ili ' da jedete žive gliste od 20 cm' 0:21:11.650,0:21:18.650 ili 'da ostatak života proživite na farmi [br]u Kansasu' 0:21:19.430,0:21:24.480 ili 'da golim rukama zadavite[br]mačku lutalicu'? 0:21:24.480,0:21:26.140 0:21:26.140,0:21:32.900 Što mislite, koja je bila najskuplja[br]stavka na toj listi? 0:21:32.900,0:21:39.750 Kansas? 0:21:39.750,0:21:44.840 U pravu ste, bio je to Kansas. 0:21:44.840,0:21:46.059 Za Kansas ljudi su rekli da bi morali[br]biti plaćeni 300.000 dolara. 0:21:46.059,0:21:47.619 0:21:47.619,0:21:51.980 0:21:57.340,0:21:59.800 Što mislite koja je bila sljedeća[br]najskuplja stavka? 0:21:59.800,0:22:03.139 0:22:03.140,0:22:06.010 Nije mačka, 0:22:06.010,0:22:08.190 nije zub, 0:22:08.190,0:22:11.250 nije nožni prst, 0:22:11.250,0:22:16.580 glista! 0:22:16.580,0:22:20.600 Ljudi su rekli da bi im trebali platiti[br]sto tisuća dolara da pojedu glistu! 0:22:20.600,0:22:23.419 0:22:23.420,0:22:28.010 Što mislite da je bila [br]najmanje skupa stavka? 0:22:28.010,0:22:30.010 Nije mačka, 0:22:30.010,0:22:31.300 zub! 0:22:31.300,0:22:34.990 U vrijeme depresije ljudi su bili voljni[br]da im se izvadi zub za samo 4.500 dolara. 0:22:34.990,0:22:39.600 0:22:39.600,0:22:40.669 0:22:42.020,0:22:45.010 Evo što je Thorndike zaključio[br]iz svog istraživanja: 0:22:45.010,0:22:48.460 0:22:48.460,0:22:51.650 svaka želja ili užitak koji postoje,[br]postoje u nekoj količini i stoga su mjerljivi. 0:22:51.650,0:22:54.600 0:22:54.600,0:22:55.949 Život psa ili mačke ili kokoši 0:22:55.950,0:22:57.010 0:22:57.010,0:22:59.430 sastoji se od 0:22:59.430,0:23:00.979 gladi, žudnji, želja i zadovoljenja. 0:23:00.979,0:23:01.880 0:23:01.880,0:23:04.290 0:23:04.290,0:23:05.750 Isto vrijedi za život ljudskih bića,[br]iako su apetiti i želje kompliciraniji. 0:23:05.750,0:23:06.940 0:23:06.940,0:23:09.409 0:23:09.409,0:23:12.450 0:23:12.450,0:23:14.330 Ali što je s Thorndikeovom studijom? 0:23:14.330,0:23:15.990 0:23:15.990,0:23:17.870 Podržava li ona Benthamovu ideju 0:23:17.870,0:23:20.209 0:23:20.210,0:23:22.130 da sva dobra, sve vrijednosti 0:23:22.130,0:23:28.390 mogu biti obuhvaćeni jednom[br]uniformnom mjerom vrijednosti 0:23:28.390,0:23:34.289 ili besmislenost stavki na listi 0:23:34.289,0:23:37.220 sugerira suprotni zaključak 0:23:37.220,0:23:40.290 da možda - bez obzira govorimo li[br]o životu ili Kanzasu ili glisti - 0:23:40.290,0:23:42.120 0:23:42.120,0:23:44.179 0:23:44.180,0:23:45.440 možda stvari koje su nam vrijedne i važne 0:23:45.440,0:23:47.810 0:23:47.810,0:23:49.399 0:23:49.400,0:23:51.350 ne mogu biti obuhvaćene jednom[br]uniformnom mjerom vrijednosti. 0:23:51.350,0:23:54.280 0:23:54.280,0:23:56.129 A ako ne mogu, koje su posljedice[br]za utilitarističku teoriju morala? 0:23:56.130,0:23:57.910 0:23:57.910,0:24:00.740 0:24:00.740,0:24:02.180 0:24:02.180,0:24:09.180 To je pitanje kojim ćemo[br]nastaviti drugi puta. 0:24:13.179,0:24:15.530 Uzmimo sada drugi dio glasova. 0:24:15.530,0:24:17.680 KAKO MJERITI UGODU 0:24:17.680,0:24:19.309 Koji je doživljaj najvećeg užitka? 0:24:19.309,0:24:21.470 0:24:21.470,0:24:23.410 0:24:23.410,0:24:25.659 Koliko vas kaže Shakespeare? 0:24:25.659,0:24:31.720 0:24:31.720,0:24:38.120 Koliko vas kaže Fear Factor[br](Faktor straha serija)? 0:24:38.120,0:24:39.760 Ne, nemoguće da ste ozbiljni,[br]zaista? 0:24:39.760,0:24:46.160 0:24:46.160,0:24:48.530 0:24:48.530,0:24:53.510 Prošli puta počeli smo razmatrati[br]neke prigovore 0:24:53.510,0:24:56.570 na verziju utilitarizma[br]Jeremy Benthama. 0:24:56.570,0:25:01.790 0:25:01.790,0:25:04.950 U raspravi koju smo vodili[br]ljudi su iznijeli dva prigovora. 0:25:04.950,0:25:08.380 0:25:08.380,0:25:10.600 Prvi prigovor, tvrdnja je bila 0:25:10.600,0:25:12.709 0:25:12.710,0:25:14.760 da utilitarizam baveći se[br]'najvećim dobrom za najveći broj' 0:25:14.760,0:25:16.970 0:25:16.970,0:25:20.110 0:25:20.110,0:25:23.120 propušta adekvatno poštovati[br]prava pojedinca. 0:25:23.120,0:25:25.479 0:25:25.480,0:25:28.880 Danas imamo debate[br]o mučenju i terorizmu. 0:25:28.880,0:25:29.990 0:25:29.990,0:25:33.610 0:25:33.610,0:25:35.139 Pretpostavimo da je osumnjičeni terorist[br]uhićen 10. rujna 0:25:35.140,0:25:41.350 0:25:41.350,0:25:44.189 i imate razloga vjerovati[br]da je osumnjičeni 0:25:44.190,0:25:46.490 imao ključne informacije o predstojećem[br]terorističkom napadu 0:25:46.490,0:25:51.230 u kojem će poginuti preko 3000 ljudi. 0:25:51.230,0:25:52.200 0:25:52.200,0:25:55.690 I ne može izvući informacije iz njega? 0:25:55.690,0:25:57.670 Da li bi bilo pravedno mučiti[br]osumnjičenika 0:25:57.670,0:25:59.440 0:25:59.440,0:26:01.070 0:26:01.070,0:26:03.060 kako bi se dobile informacije? 0:26:03.060,0:26:05.550 Ili 0:26:05.550,0:26:07.770 Ili kažete - Ne - postoji kategorična moralna[br]obaveza poštovanja prava pojedinca 0:26:07.770,0:26:14.550 0:26:14.550,0:26:17.899 Na neki način vratili smo se na pitanje[br]s kojim smo počeli, 0:26:17.900,0:26:23.910 o tramvaju i transplantaciji organ.[br]To je prvo sporno pitanje. 0:26:23.910,0:26:29.250 I sjećate se da smo razmatrali neke primjere[br]analize troškova i koristi. 0:26:29.250,0:26:33.870 Ali mnogo ljudi nije bilo zadovoljno[br]s analizom troškova i koristi 0:26:33.870,0:26:39.969 kad se radilo o pridjeljivanju[br]dolarske vrijednosti ljudskom životu. 0:26:39.970,0:26:42.290 I to nas je dovelo do drugog prigovora 0:26:42.290,0:26:44.500 0:26:44.500,0:26:48.810 koji je doveo u pitanje mogućnost[br]prevođenja svih vrijednosti 0:26:48.810,0:26:52.879 na jednu uniformnu mjeru vrijednosti. 0:26:52.880,0:26:57.580 Drugim riječima, pitanje je[br]jesu li sve vrijednosti sumjerljive. 0:26:57.580,0:27:00.080 Da vam dam još jedan primjer, [br]ustvari istinitu priču iz osobnog iskustva, 0:27:00.080,0:27:01.299 0:27:01.299,0:27:07.240 0:27:07.240,0:27:12.900 koja barem postavlja pitanje[br]mogu se sve vrijednosti prevesti bez gubitka 0:27:12.900,0:27:14.060 0:27:14.060,0:27:20.158 u utilitaritarističke termine. 0:27:20.159,0:27:22.390 Prije nekoliko godina 0:27:22.390,0:27:28.080 kad sam bio na diplomskom studiju[br]na Oxfordu u Engleskoj, 0:27:28.080,0:27:29.800 i postojali su muški i ženski fakulteti,[br]još nisu bili pomiješani. 0:27:29.800,0:27:31.428 I ženski fakulteti imali su pravila[br]zabrane noćnih posjeta za muške goste. 0:27:31.429,0:27:33.590 0:27:33.590,0:27:37.470 0:27:37.470,0:27:40.080 U 1970.-ima ta su se pravila rijetko[br]provodila i često kršila 0:27:40.080,0:27:44.030 0:27:44.030,0:27:51.030 ili mi je tako bilo rečeno. 0:27:51.600,0:27:56.549 Kasnih sedamdesetih, kad sam ja bio tamo,[br]porastao je pritisak za ublažavanje tih pravila 0:27:56.549,0:28:01.100 i to postalo predmet diskusije[br]na St. Anne College, 0:28:01.100,0:28:03.840 koji je bio jedan od tih fakulteta[br]samo za žene. 0:28:03.840,0:28:06.629 Starije žene na fakultetu[br]bile su tradicionalisti, 0:28:06.630,0:28:10.720 protivile su se promjeni[br]na konvencionalnim moralnim osnovama. 0:28:10.720,0:28:12.820 0:28:12.820,0:28:14.320 No, vremena su se promijenila[br]i bilo im je neugodno 0:28:14.320,0:28:17.110 0:28:17.110,0:28:20.000 iznijeti pravu osnovu [br]njihovih prigovora. 0:28:20.000,0:28:22.809 I zato su svoje argumente prevele[br]u utilitarističke termine. 0:28:22.809,0:28:26.120 0:28:26.120,0:28:27.419 Ako muškarci ostaju preko noći,[br]tvrdile su, povećat će se troškovi fakulteta. 0:28:27.420,0:28:31.680 0:28:31.680,0:28:33.490 Kako, možda se pitate? 0:28:33.490,0:28:39.429 Pa, poželjet će se okupati[br]i potrošit će našu toplu vodu, rekle su. 0:28:39.429,0:28:40.779 Nadalje, tvrdile su, morat ćemo[br]češće mijenjati madrace. 0:28:40.779,0:28:46.780 0:28:46.780,0:28:48.379 Reformatori su udovoljili tim zahtjevima[br]prihvaćajući sljedeće kompromise: 0:28:48.380,0:28:52.250 svaka žena može imati do tri[br]noćna gosta tjedno 0:28:52.250,0:28:53.280 0:28:53.280,0:29:00.280 0:29:01.160,0:29:05.940 - nisu rekli da li to mora biti ista osoba[br]ili tri različite - 0:29:05.940,0:29:06.800 uz uvjet, i u tome je bio kompromis,[br]uz uvjet 0:29:06.800,0:29:09.240 0:29:09.240,0:29:10.400 gost je plaćao 50 pensa da namiri[br]trošak fakulteta. 0:29:10.400,0:29:15.340 0:29:15.340,0:29:17.179 Sljedeći dan pojavio se naslov[br]u nacionalnim novinama: 0:29:17.180,0:29:23.080 'Djevojke na St Anne, 50 pensa za noć'! 0:29:29.500,0:29:31.040 Još jedna ilustracija teškoće[br]prevođenja svih vrijednosti, 0:29:31.040,0:29:31.730 0:29:31.730,0:29:34.730 0:29:34.730,0:29:36.150 0:29:36.150,0:29:38.930 - u ovom slučaju određene ideje vrline - 0:29:38.930,0:29:44.200 u utilitarističke termine. 0:29:44.200,0:29:46.980 Dakle, ovo je kao ilustracija [br]drugog prigovora utilitarizmu, 0:29:46.980,0:29:48.830 0:29:48.830,0:29:52.679 bar onog dijela tog prigovora[br]koji dovodi u pitanje 0:29:52.680,0:29:54.780 0:29:54.780,0:29:56.620 ispravnost utilitarizma u stajalištu 0:29:56.620,0:29:58.809 da možemo prihvatiti uniformnost vrijednosti,[br]sumjerljivost svih vrijednosti, 0:29:58.809,0:30:00.670 0:30:00.670,0:30:02.420 0:30:02.420,0:30:08.230 i prevesti sva moralna razmatranja[br]u dolare odnosno novac. 0:30:08.230,0:30:09.740 0:30:09.740,0:30:10.280 0:30:10.280,0:30:12.220 0:30:12.220,0:30:14.510 No postoji i drugi aspekt brige u vezi[br]agregiranja vrijednosti i preferencija. 0:30:14.510,0:30:19.690 0:30:19.690,0:30:21.990 Zašto bismo trebali odvagnuti[br]sve preferencije koje ljudi imaju 0:30:21.990,0:30:23.120 0:30:23.120,0:30:25.260 0:30:25.260,0:30:27.390 0:30:27.390,0:30:32.650 bez procjenjivanja jesu li te preferencije[br]dobre ili loše? 0:30:32.650,0:30:35.120 Ne bismo li trebali razlikovati[br]više i niže užitke? 0:30:35.120,0:30:36.010 0:30:36.010,0:30:37.590 0:30:37.590,0:30:38.260 0:30:38.260,0:30:41.760 0:30:41.760,0:30:44.250 Dio sklonosti da ne radimo kvalitatine razlike[br]između vrijednosti preferencija ljudi, 0:30:44.250,0:30:49.380 0:30:49.380,0:30:50.820 djelomično smo tome skloni zato[br]jer je to neosuđujuće i egalitaristički. 0:30:50.820,0:30:55.250 0:30:55.250,0:30:58.110 Benthamski utilitarista kaže: 0:30:58.110,0:31:01.199 Svačije preferencije se računaju[br]bez obzira na to što ljudi žele, 0:31:01.200,0:31:04.890 0:31:04.890,0:31:08.580 bez obzira na to što veseli različite ljude. 0:31:08.580,0:31:09.530 Za Benthama, važno je jedino,[br]sjetit ćete se, 0:31:09.530,0:31:11.250 intenzitet ili trajanje zadovoljstva ili boli. 0:31:11.250,0:31:12.960 0:31:12.960,0:31:16.010 0:31:16.010,0:31:18.270 0:31:18.270,0:31:24.040 Takozvana viša zadovoljstva ili plemenite[br]vrline su jednostavno one, prema Benthamu, 0:31:24.040,0:31:25.420 koje proizvode jače, duže zadovoljstvo. 0:31:25.420,0:31:26.419 0:31:26.419,0:31:29.380 0:31:29.380,0:31:32.790 Čuvena fraza za iskazivanje te ideje je 0:31:32.790,0:31:35.770 'količina zadovoljstva je jednaka,[br]radi li se o pribadači ili poeziji'. 0:31:35.770,0:31:37.059 0:31:37.059,0:31:39.519 0:31:39.519,0:31:41.789 Što je bila 'pribadača'? 0:31:41.789,0:31:46.929 Bila je to neka vrsta dječje igre,[br]'igra pribadača dobra je koliko i poezija', 0:31:46.929,0:31:48.850 rekao je Bentham. 0:31:48.850,0:31:50.509 A, mislim da ispod te ideje leži[br]tvrdnja, slutnja, 0:31:50.509,0:31:51.510 0:31:51.510,0:31:52.779 0:31:52.779,0:31:54.090 0:31:54.090,0:31:55.870 da je oholo prosuđivati čija su zadovoljstva[br]intrinzično viša ili vrednija ili bolja. 0:31:55.870,0:31:57.949 0:31:57.950,0:31:58.979 0:31:58.979,0:32:00.670 0:32:00.670,0:32:03.850 0:32:03.850,0:32:07.010 I ima nešto privlačno u tom odbijanju[br]da se prosuđuje, 0:32:07.010,0:32:09.770 na koncu neki ljudi vole Mozarta,[br]drugi Madonnu, 0:32:09.770,0:32:11.790 0:32:11.790,0:32:12.520 0:32:12.520,0:32:15.090 neki ljudi vole balet,[br]drugi kuglanje. 0:32:15.090,0:32:16.389 0:32:16.390,0:32:17.360 0:32:17.360,0:32:19.439 Tko kaže, mogao bi tvrditi Bentham, 0:32:19.440,0:32:23.140 tko će reći koja od zadovoljstava, 0:32:23.140,0:32:24.260 čija zadovoljstva su viša, vrednija,[br]plemenitija od drugih? 0:32:24.260,0:32:25.460 0:32:25.460,0:32:26.350 0:32:26.350,0:32:27.500 0:32:27.500,0:32:31.570 0:32:31.570,0:32:35.980 Ali, je lli to ispravno? 0:32:35.980,0:32:40.310 To odbijanje da radimo[br]kvalitativne razlike. 0:32:40.310,0:32:42.179 Možemo li se mi, svi zajedno,[br]odreći ideje 0:32:42.180,0:32:45.170 0:32:45.170,0:32:49.010 da su određene stvari koje nam[br]čine zadovoljstvo bolje ili vrednije od drugih? 0:32:49.010,0:32:50.660 0:32:50.660,0:32:53.890 0:32:53.890,0:32:58.640 Sjetite se Rimljana u koloseumu,[br]jedna stvar koja je u tome ljude smetala 0:32:58.640,0:32:58.960 0:32:58.960,0:33:01.170 bilo je da su se time izgleda[br]kršila prava kršćana. 0:33:01.170,0:33:04.490 0:33:04.490,0:33:07.250 Druga zamjerka onome što se tu događa 0:33:07.250,0:33:10.720 je uživanje Rimljana u tom krvavom spektaklu. 0:33:10.720,0:33:13.480 0:33:13.480,0:33:15.850 Treba li to zadovoljstvo, koje je sramotno[br]i na neki način korumpirano, 0:33:15.850,0:33:16.500 0:33:16.500,0:33:19.130 0:33:19.130,0:33:22.730 ponižavajuće zadovoljstvo. 0:33:22.730,0:33:26.960 Treba li to uopće biti valorizirano[br]odnosno vagano pri odlučivanju 0:33:26.960,0:33:33.770 o tome što je opće dobro? 0:33:33.770,0:33:38.760 Dakle, ovo su prigovori na Benthamov[br]uitlitarizam, 0:33:38.760,0:33:42.800 a sada se okrećemo nekome[br]tko je pokušao odgovoriti na te prigovore, 0:33:42.800,0:33:45.889 0:33:45.890,0:33:47.820 mlađi utilitarista, John Stuart Mill. 0:33:47.820,0:33:50.120 0:33:50.120,0:33:52.780 Ono što sada trebamo ispitati 0:33:52.780,0:33:54.510 0:33:54.510,0:33:58.809 je da li John Stuart Mill ima uvjerljivi[br]odgovor na ove prigovore utilitarizmu. 0:33:58.809,0:34:05.090 0:34:05.090,0:34:06.750 John Stuart Mill je rođen 1806., njegov otac,[br]James Mill bio je Benthamov učenik 0:34:06.750,0:34:08.760 0:34:08.760,0:34:11.369 0:34:11.369,0:34:14.079 0:34:14.079,0:34:17.389 i James Mill se odlučio svom sinu, Johnu[br]Stuartu Millu, dati primjereno obrazovanje. 0:34:17.389,0:34:20.329 0:34:20.329,0:34:22.429 On je bio čudo od djeteta, John Stuart Mill, 0:34:22.429,0:34:23.569 0:34:23.569,0:34:27.859 znao je grčki s tri godine,[br]latinski s osam, 0:34:27.859,0:34:29.139 a u dobi od 10 godina napisao je[br]Povijest rimskog prava. 0:34:29.139,0:34:33.659 0:34:33.659,0:34:35.649 U dobi od 20 godina [br]doživio je živčani slom, 0:34:35.649,0:34:39.129 to ga je bacilo u depresiju pet godina, 0:34:39.129,0:34:43.549 ali sa 25, ono što mu je pomoglo[br]da se izvuče iz te depresije 0:34:43.549,0:34:46.800 0:34:46.800,0:34:49.949 je susret s Harriet Taylor. 0:34:49.949,0:34:52.659 Ona Mill su se oženili i živjeli sretno[br]do kraja života 0:34:52.659,0:34:54.849 i bilo je to pod njenim utjecajem 0:34:54.849,0:34:56.659 0:34:56.659,0:34:59.859 da je John Stuart Mill pokušao[br]humanizirati utilitarizam. 0:34:59.859,0:35:01.720 0:35:01.720,0:35:05.279 Ono što je Mill pokušao je ustanoviti 0:35:05.279,0:35:07.710 da li utilitarističko računanje[br]može biti prošireno i modificirano 0:35:07.710,0:35:09.029 0:35:09.029,0:35:11.200 0:35:11.200,0:35:13.759 kako bi zadovoljilo humanitarne dvojbe[br]poput: 0:35:13.759,0:35:17.429 0:35:17.429,0:35:20.390 brige za poštovanje ljudskih prava 0:35:20.390,0:35:24.598 i također razlike između viših i nižih[br]zadovoljstava. 0:35:24.599,0:35:26.439 0:35:26.439,0:35:30.368 1859. Mill je napisao čuvenu knjigu[br]'O slobodi', 0:35:30.369,0:35:35.399 čija je glavna tema važnost obrane[br]prava pojedinca i prava manjina, 0:35:35.399,0:35:36.380 0:35:36.380,0:35:38.329 a 1861. pred kraj života 0:35:38.329,0:35:40.339 0:35:40.339,0:35:43.130 napisao jee knjigu koju čitamo[br]u okviru ovog kolegija 0:35:43.130,0:35:45.099 'Utilitarizam'. 0:35:45.099,0:35:46.599 U njoj pojašnjava da je korisnost[br]jedino mjerilo moralnosti, po njemu. 0:35:46.599,0:35:49.739 0:35:49.739,0:35:50.769 0:35:50.769,0:35:52.549 Dakle, on ne dovodi u pitanje[br]Benthamovu premisu, 0:35:52.550,0:35:53.949 0:35:53.949,0:35:55.279 on je potvrđuje. 0:35:55.279,0:35:58.829 On vrlo izričito kaže, 'Jedini dokaz da je[br]moguće prozvesti da je sve poželjno, 0:35:58.829,0:36:04.659 je taj da ljudi to zaista žele.' 0:36:04.659,0:36:05.929 0:36:05.929,0:36:11.679 Dakle, on ostaje kod ideje da su de facto[br]empirijske želje jedini temelj za moralnu prosudbu. 0:36:11.679,0:36:12.979 0:36:12.979,0:36:15.618 0:36:15.619,0:36:17.549 Ali onda - strana 8 također u poglavlju 2 - 0:36:17.549,0:36:18.979 0:36:18.979,0:36:24.879 on tvrdi da je utilitaristi moguće[br]razlikovati viša od nižih zadovoljstava. 0:36:24.879,0:36:26.319 0:36:26.320,0:36:28.970 Vi koji ste već čitali Milla, 0:36:28.970,0:36:30.519 0:36:30.519,0:36:32.078 0:36:32.079,0:36:33.329 kako je po njemu moguće[br]utvrditi tu razliku? 0:36:33.329,0:36:36.559 0:36:36.559,0:36:40.079 Kako utilitarista može kvalitativno[br]razlikovati viša zadovoljstva od nižih, 0:36:40.079,0:36:42.819 0:36:42.819,0:36:43.540 sramotnih, nevrijednih? 0:36:43.540,0:36:48.859 0:36:48.859,0:36:50.519 Ako ste probali oba, prirodno ćete[br]dati prednost onom višem, uvijek. 0:36:50.519,0:36:55.308 0:36:55.309,0:36:59.819 Sjajno, to je točno.[br]Kako se zovete? 0:36:59.819,0:37:01.759 John. 0:37:01.759,0:37:05.019 Pa, kako ističe John, Mills kaže, 0:37:05.019,0:37:07.868 'Evo testa, budući da ne možemo [br]iskoračiti izvan stvarnih želja i preferenci, 0:37:07.869,0:37:10.490 0:37:10.490,0:37:11.649 to bi narušilo utilitarističke pemise, 0:37:11.650,0:37:13.670 0:37:13.670,0:37:16.819 jedini test 0:37:16.819,0:37:17.600 da li je zadovoljstvo[br]više ili niže razine, 0:37:17.600,0:37:19.769 0:37:19.769,0:37:26.468 je da li bi mu netko tko je doživio oba,[br]dao prednost. 0:37:26.469,0:37:28.109 0:37:28.109,0:37:29.369 A ovdje, u poglavlju 2, vidimo odlomak[br]u kojem Mill govori ono što je John opisao. 0:37:29.369,0:37:31.259 0:37:31.259,0:37:32.900 0:37:32.900,0:37:37.199 0:37:37.199,0:37:42.680 'Od dva zadovoljstva, ako postoji jedno[br]kojem bi svi, ili skoro svi, koji su doživjeli oba, 0:37:42.680,0:37:46.219 dali odlučujuću prednost, 0:37:46.219,0:37:51.859 bez obzira na bilo kakav osjećaj[br]moralne obaveze da ga preferiraju, 0:37:51.859,0:37:53.390 drugim riječima bez ikakvog vanjskog,[br]nezavisnog mjerila, 0:37:53.390,0:37:57.529 onda je to poželjnije zadovoljstvo.' 0:37:57.529,0:37:59.829 Što ljudi misle o tom argumentu? 0:37:59.829,0:38:01.549 0:38:01.549,0:38:03.489 Da li je dobar? 0:38:03.489,0:38:06.380 Koliko vas misli da je uspješan 0:38:06.380,0:38:11.489 za diskusiju o razlikovanju između viših[br]i nižih zadovoljstava u terminima utilitarizma? 0:38:11.489,0:38:12.390 Koliko vas misli da nije dobar? 0:38:12.390,0:38:17.788 0:38:17.789,0:38:20.829 Želim čuti vaše razloge, 0:38:20.829,0:38:22.249 ali prije no što izložimo razloge,[br]napravit ćemo jedan pokus 0:38:22.249,0:38:23.848 0:38:23.849,0:38:26.329 0:38:26.329,0:38:28.719 u vezi Millsove tvrdnje. 0:38:28.719,0:38:31.569 0:38:31.569,0:38:35.199 Da bismo mogli napraviti taj pokus 0:38:35.199,0:38:39.859 pogledat ćemo tri kratka isječka[br]popularne zabave. 0:38:39.859,0:38:41.558 0:38:41.559,0:38:44.889 0:38:44.889,0:38:48.170 Prvi je Hamletov monolog 0:38:48.170,0:38:52.939 iza kojeg slijede dva druga doživljaja. 0:38:52.939,0:38:55.420 0:38:55.420,0:38:58.259 Da vidimo što vi mislite. 0:38:58.259,0:39:02.249 'Kakvo je remek-djelo čovjek! 0:39:02.249,0:39:05.509 Kako plemenit umom! 0:39:05.509,0:39:07.579 Kako neograničen u sposobnostima! 0:39:07.579,0:39:11.439 U liku i pokretu kako je izražajan i divan! 0:39:11.439,0:39:14.949 U djelima kako sličan anđelu,[br]u mislima kako sličan Bogu! 0:39:14.949,0:39:16.430 Ljepota svijeta, uzor svim životinjama! 0:39:16.430,0:39:18.348 0:39:18.349,0:39:21.259 Pa ipak, što je za mene[br]ta kvintesencija prašine? 0:39:21.259,0:39:24.689 0:39:24.689,0:39:31.689 Čovjek mene ne očarava.' 0:39:43.309,0:39:47.749 'Zamislite svijet u kojem vaši najveći[br]strahovi postaju stvarnost. 0:39:47.749,0:39:52.609 Svaki show, šest natjecatelja iz cijele zemlje[br]bore se međusobno u tri ekstremne egzibicije. 0:39:52.609,0:39:59.609 Te egzibicije smišljene su kao izazovi[br]za natjecatelje, fizički i mentalno. 0:40:00.419,0:40:02.288 Šest natjecatelja, tri egzibicije, jedan pobjednik. 0:40:02.289,0:40:09.289 Fear Factor. 0:40:16.449,0:40:22.919 Simpsoni. 0:40:22.919,0:40:25.240 Flanders, otkad ti voliš kul stvari? 0:40:25.240,0:40:28.729 Pa, nije mi do brzine, ali obožavam tu zaštitnu[br]opremu, kacige, zaštitne šipke, zastavice. 0:40:28.729,0:40:35.499 Ja volim friški zrak i gledati jadnike[br]na terenu. 0:40:35.499,0:40:41.319 Dang Cletus, zašto si morao parkirati[br]pokraj mojih roditelja? 0:40:41.320,0:40:43.029 Ne draga, to su i moji roditelji. 0:40:55.759,0:41:00.629 Ne moram ni pitati[br]koji vam se najviše sviđao. 0:41:00.629,0:41:05.109 Simpsoni? Kome su se najviše sviđali Simpsoni? 0:41:05.109,0:41:10.140 Kome Shakespeare? 0:41:10.140,0:41:12.710 A Fear Factor? 0:41:12.710,0:41:15.959 Koliko vas više voli Fear Factor? 0:41:15.959,0:41:22.368 Stvarno? 0:41:22.369,0:41:24.079 Nadmoćnoj većini sviđaju se Simpsoni 0:41:24.079,0:41:25.769 0:41:25.769,0:41:29.229 više od Shakespearea. 0:41:29.229,0:41:31.598 U redu, uzmimo sad drugi dio glasova. 0:41:31.599,0:41:33.749 0:41:33.749,0:41:35.799 Koji doživljaj odnosno užitak je najviši? 0:41:35.799,0:41:37.529 0:41:37.529,0:41:39.409 0:41:39.409,0:41:41.729 Koliko ih kaže Shakespeare? 0:41:41.729,0:41:47.788 0:41:47.789,0:41:49.960 Koliko ih kaže Fear Factor? 0:41:49.960,0:41:54.189 0:41:54.189,0:41:59.069 Ne, vi se šalite. Ozbiljno? 0:41:59.069,0:42:01.038 0:42:01.039,0:42:02.709 Samo naprijed, recite. 0:42:02.709,0:42:03.439 Ja mislim da je to najzabavnije. 0:42:03.439,0:42:04.709 0:42:04.709,0:42:09.428 Znam, ali koji doživljaj je za vas najvredniji,[br]najplemenitiji. 0:42:09.429,0:42:10.920 Znam da vam je to najzabavnije. 0:42:10.920,0:42:15.920 Ako je nešto dobro samo zato što je ugodno,[br]zašto je važno da imate neku apstraktnu ideju 0:42:15.920,0:42:17.209 je li to dobro po mjerilima nekog drugog? 0:42:17.209,0:42:21.729 0:42:21.729,0:42:25.038 Znači vi stajete na stranu Benthama: 0:42:25.039,0:42:26.429 tko je taj koji će prosuditi 0:42:26.429,0:42:29.279 i zašto bi morali prosuđivati? 0:42:29.279,0:42:33.880 Umjesto da samo registriramo i pribrojimo[br]de facto preferencije. U redu, pošteno. 0:42:33.880,0:42:35.349 Kako se vi zovete? 0:42:35.349,0:42:37.329 Nate? U redu, pošteno. 0:42:37.329,0:42:38.219 0:42:38.219,0:42:40.919 Koliko vas misli da su Simpsoni ustvari,[br]osim što vam se sviđaju, 0:42:40.919,0:42:46.259 da su ustvari doživljaj[br]više razine od Shakespearea? 0:42:46.259,0:42:47.420 0:42:47.420,0:42:49.309 Da vidiomo ponovo[br]tko je glasao za Shakespearea. 0:42:49.309,0:42:52.869 Koliko vas misli da je Shakespeare viši? 0:42:52.869,0:42:53.869 0:42:53.869,0:42:55.540 0:42:55.540,0:42:58.999 Idealno bi bilo da čujem nekoga ...[br]ima li koga tko misli da je Shakespeare najviši, 0:42:58.999,0:43:02.109 0:43:02.109,0:43:02.989 ali radije gleda Simpsone? 0:43:02.989,0:43:04.060 0:43:04.060,0:43:08.739 0:43:08.739,0:43:14.160 Samo sjediti i gledati Simpsone je zabavno[br]jer se šale i nasmijavaju nas, 0:43:14.160,0:43:17.839 ali netko nam mora reći [br]da je Shakespeare veliki pisac, 0:43:17.839,0:43:20.630 moramo naučiti kako ga čitati[br]i kako ga razumijeti, 0:43:20.630,0:43:23.150 moramo naučiti kako gledati Rembrandta,[br]kako analizirati sliku. 0:43:23.150,0:43:25.859 Kako se vi zovete? 0:43:25.859,0:43:27.840 Aneesha. 0:43:27.840,0:43:31.259 Aneesha, kad kažete da vam je netko[br]rekao da je Shakespeare bolji, 0:43:31.259,0:43:37.299 da li to prihvaćate slijepom vjerom? 0:43:37.299,0:43:41.529 Glasali ste da je Shakespeare bolji[br]samo zato jer vam to govori kultura ili učitelji? 0:43:41.529,0:43:44.049 Ili se zaista sami slažete s tim? 0:43:44.049,0:43:48.319 U odnosu na Shakesperea, ne,[br]ali ranije ste dali primjer Rembrandta 0:43:48.319,0:43:49.740 0:43:49.740,0:43:54.479 i mislim da bih više uživala[br]čitajući strip 0:43:54.479,0:43:58.348 nego što bih uživala analizirajući Rembrandta[br]zato jer mi je netko rekao da je veliki slikar. 0:43:58.349,0:44:01.699 Dakle vi sugerirate da bi nešto od toga[br]bilo kulturna konvencija i pritisak. 0:44:01.699,0:44:05.319 Rečeno nam je koje knjige,[br]koja umjetnička djela su velika. 0:44:05.319,0:44:12.319 Tko još? 0:44:15.309,0:44:19.640 Iako sam više uživao gledajući Simpsone,[br]ovaj tren na predavanju, 0:44:19.640,0:44:23.049 kad bih morao ostatak svog života provesti[br]s jednim od tri prikazana videa, 0:44:23.049,0:44:25.369 0:44:25.369,0:44:26.869 0:44:26.869,0:44:29.119 ne bih želio provesti taj ostatak svog života[br]gledajući zadnja dva videa. 0:44:29.119,0:44:31.869 0:44:31.869,0:44:33.800 0:44:33.800,0:44:36.650 Mislim da bih više užitka našao[br]u tome da budem u stanju 0:44:36.650,0:44:38.309 0:44:38.309,0:44:39.269 razvijati se u vlastitom umu 0:44:39.269,0:44:40.488 baveći se dubljim užicima,[br]dubljim mislima. 0:44:40.489,0:44:44.869 0:44:44.869,0:44:48.630 Recite mi vaše ime. 0:44:48.630,0:44:49.630 Joe. 0:44:49.630,0:44:52.559 Joe, dakle kad morali ostatak života provesti 0:44:52.559,0:44:55.409 na farmi u Kansasu samo sa Shakespearom[br]ili zbirkom epizoda Simpsona, 0:44:55.409,0:44:57.489 0:44:57.489,0:45:02.079 0:45:02.079,0:45:04.119 vi bi radije odabrali Shakespearea? 0:45:04.119,0:45:06.599 0:45:06.599,0:45:09.849 Što iz toga zaključujete [br]o testu John Stuart Millsa? 0:45:09.849,0:45:12.149 0:45:12.149,0:45:15.078 Da test višeg zadovoljstva pokazuje 0:45:15.079,0:45:16.359 da li ljudi koji su doživjeli oba[br]preferiraju dotično. 0:45:16.359,0:45:18.369 0:45:18.369,0:45:21.509 0:45:21.509,0:45:23.880 Mogu li ukratko citirati drugi primjer? 0:45:23.880,0:45:25.130 Na neurobiologiji prošle godine[br]pričali su nam o pokusu sa štakorom 0:45:25.130,0:45:28.769 0:45:28.769,0:45:31.209 gdje je štakor mogao stimulirati[br]određeni centar u svom mozgu 0:45:31.209,0:45:35.879 tako da doživljava intenzivno zadooljstvo. 0:45:35.879,0:45:38.368 Štakor nije jeo ni pio sve dok nije umro. 0:45:38.369,0:45:42.179 Štakor je očito doživljavao [br]intenzivno zadovoljstvo. 0:45:42.179,0:45:46.269 Pa sada, da me ovaj čas upitate[br]da li bih radije doživio intenzivno zadovoljstvo 0:45:46.269,0:45:47.140 0:45:47.140,0:45:52.690 ili cijeli život ispunjen višim zadovoljstvom, 0:45:52.690,0:45:55.799 - intenzivno zadovoljstvo pritom smatram[br]nižim zadovoljstvom - 0:45:55.799,0:46:01.969 rado bih ovaj čas uživao u[br]intenzivnom zadovoljstvu - da, sigurno bi - 0:46:01.969,0:46:03.159 ali tokom cijelog života, mislim da bi se [br]većina ovdje složila 0:46:03.159,0:46:04.360 0:46:04.360,0:46:06.899 0:46:06.899,0:46:11.630 da bi radije bili ljudi s višim zadovoljstvom,[br]nego taj štakor s intenzivnim zadovoljstvom 0:46:11.630,0:46:13.269 u vrlo kratkom vremenskom periodu. 0:46:13.269,0:46:14.930 0:46:14.930,0:46:15.870 0:46:15.870,0:46:18.959 A odgovarajući na vaše pitanje,[br]to dokazuje da ... 0:46:18.959,0:46:21.348 neću reći dokazuje, 0:46:21.349,0:46:24.999 mislim da je zaključak da Millsova teorija[br]da ako se pita ljude što bi više voljeli, 0:46:24.999,0:46:28.649 0:46:28.650,0:46:31.439 0:46:31.439,0:46:33.118 većina će odgovoriti da bi radije[br]doživljavali više zadovoljstvo. 0:46:33.119,0:46:34.689 Dakle, vi mislite da to podržava ...[br]mislite da je Mills ovdje u pravu? 0:46:34.689,0:46:39.499 0:46:39.499,0:46:40.738 Da, mislim. 0:46:40.739,0:46:42.629 Ima li koga tko se ne slaže s Joeom, 0:46:42.629,0:46:46.839 tko misli da naš eksperiment opovrgava[br]Millsov test? 0:46:46.839,0:46:48.578 0:46:48.579,0:46:49.959 0:46:49.959,0:46:51.098 0:46:51.099,0:46:53.239 Pokazuje da to nije adekvatan način, 0:46:53.239,0:46:57.689 da ne možete raspoznati viša zadovoljstva[br]u okvirima utilitarizma. 0:46:57.689,0:47:02.649 0:47:05.879,0:47:09.509 Ako je uistinu dobro što god ljudi[br]preferiraju, 0:47:09.509,0:47:11.519 onda je to uistinu relativno i ne postoji[br]objektivna definicija. 0:47:11.519,0:47:14.888 U nekim društvima ljudi će preferirati[br]Simpsone. 0:47:14.889,0:47:15.849 0:47:15.849,0:47:21.380 Svatko može uživati u Simpsonima, 0:47:21.380,0:47:25.660 ali mislim da je nužna edukacija[br]da se uživa u Shakespeareu. 0:47:25.660,0:47:27.319 Vi kažete da je potrebna edukacija[br]za uživanje u višim stvarima. 0:47:27.319,0:47:29.719 Millsov stav je da viša zadovoljstva[br]zaista zahtijevaju kultivaciju i edukaciju. 0:47:29.719,0:47:32.890 0:47:32.890,0:47:35.089 0:47:35.090,0:47:37.799 On to ne osporava. 0:47:37.799,0:47:38.650 0:47:38.650,0:47:41.660 Ali jednom kad su kultivirani i educirani[br]ljudi će uvidjeti, 0:47:41.660,0:47:44.029 ne samo da će uvidjeti razliku[br]između viših i nižih zadovoljstava, 0:47:44.029,0:47:45.509 0:47:45.509,0:47:48.270 0:47:48.270,0:47:49.009 0:47:49.009,0:47:51.539 nego će zapravo preferirati [br]viša pred nižima. 0:47:51.539,0:47:52.769 0:47:52.769,0:47:53.970 0:47:53.970,0:47:55.848 0:47:55.849,0:47:59.519 Naći ćete taj čuveni citat John Stuart Millsa: 0:47:59.519,0:48:00.808 'Bolje je biti nezadovoljno ljudsko biće,[br]nego zadovoljna svinja.' 0:48:00.809,0:48:03.869 0:48:03.869,0:48:06.109 Bolje nezadovoljni Sokrat,[br]nego zadovoljna budala. 0:48:06.109,0:48:10.538 0:48:10.539,0:48:12.229 A ako budala i svinja različito misle, to je[br]zato jer znaju samo svoju stranu pitanja.' 0:48:12.229,0:48:13.439 0:48:13.439,0:48:15.538 0:48:15.539,0:48:18.209 0:48:18.209,0:48:20.700 0:48:20.700,0:48:22.339 Dakle, tu imate pokušaj razlikovanja[br]viših od nižih zadovoljstava, 0:48:22.339,0:48:23.159 0:48:23.159,0:48:24.609 0:48:24.609,0:48:27.199 0:48:27.199,0:48:28.719 0:48:28.719,0:48:33.169 odnosno između posjeta muzeju i[br]gledanja televizije uz bocu piva kod kuće. 0:48:33.169,0:48:35.489 0:48:35.489,0:48:37.950 Mill dopušta da ponekad možda[br]podliježemo iskušenju 0:48:37.950,0:48:40.839 da radimo ovo zadnje, budemo[br]TV ovisnici, 0:48:40.839,0:48:41.839 0:48:41.839,0:48:46.308 0:48:46.309,0:48:47.779 ali čak i kad to radimo[br]iz nemara i lijenosti,[br]i 0:48:47.779,0:48:49.609 0:48:49.609,0:48:50.680 0:48:50.680,0:48:52.200 mi znamo da zadovoljstvo koje osjećamo[br]zureći u Rembrandta u muzeju 0:48:52.200,0:48:54.029 ustvari je više 0:48:54.029,0:48:55.670 0:48:55.670,0:48:56.989 0:48:56.989,0:49:00.219 0:49:00.219,0:49:03.190 zato jer smo doživjeli oba. 0:49:03.190,0:49:05.699 A to i jeste više zadovoljstvo,[br]zurenje u Rembrandte, 0:49:05.699,0:49:06.940 0:49:06.940,0:49:11.499 zato jer zaokuplja naše više[br]ljudske sposobnosti. 0:49:11.499,0:49:13.848 Što je s Millsovim pokušajem da odgovori[br]na prigovor o pravima pojedinca? 0:49:13.849,0:49:18.890 0:49:18.890,0:49:21.859 Na neki način on koristi[br]istu vrstu argumenta. 0:49:21.859,0:49:25.319 A to je predstavljeno u poglavlju 5. 0:49:25.319,0:49:27.859 0:49:27.859,0:49:33.369 On kaže: 'Iako osporavam pretenzije[br]bilo koje teorije koja postavlja 0:49:33.369,0:49:34.889 imaginarni standard pravednosti[br]neutemeljen na korisnosti. 0:49:34.889,0:49:39.719 0:49:39.719,0:49:41.389 Ali ipak, smatra da je pravednost[br]utemeljena na korisnosti, 0:49:41.389,0:49:43.429 glavni dio i neusporedivo najsvetiji [br]i obvezujući dio svake moralnosti ...' 0:49:43.429,0:49:44.599 0:49:44.599,0:49:48.549 0:49:48.549,0:49:52.679 0:49:52.679,0:49:54.599 0:49:54.599,0:49:57.249 Dakle, pravda jeste viša,[br]individualna prava imaju prednost, 0:49:57.249,0:50:00.049 0:50:00.049,0:50:01.899 ali ne iz razloga koji se razilaze[br]sa utilitarističkim postavkama. 0:50:01.899,0:50:05.310 0:50:05.310,0:50:06.769 'Pravednost je ime za određene[br]moralne zahtjeve 0:50:06.769,0:50:09.069 koji, na kolektivnoj razini, stoje [br]visoko na skali društvene korisnosti 0:50:09.069,0:50:11.220 i stoga predstavljaju mjerodavniju obavezu[br]od bilo koje druge.' 0:50:11.220,0:50:14.519 0:50:14.519,0:50:17.109 0:50:17.109,0:50:19.209 0:50:19.209,0:50:20.678 0:50:20.679,0:50:23.200 0:50:23.200,0:50:28.919 Dakle, pravednost je sveta, prvenstvena,[br]povlaštena. 0:50:28.920,0:50:30.890 To nije nešto što se može lako razmijeniti[br]za manje vrijedne stvari, 0:50:30.890,0:50:32.239 ali razlog je, u konačnici, tvrdi Mills,[br]utilitaristički razlog 0:50:32.239,0:50:33.619 0:50:33.619,0:50:35.799 0:50:35.799,0:50:37.929 0:50:37.929,0:50:39.239 Kad pogledate dugoročne interese[br]ljudske vrste, 0:50:39.239,0:50:41.199 0:50:41.199,0:50:43.539 svih nas kao progresivnih bića, 0:50:43.539,0:50:44.670 0:50:44.670,0:50:46.329 0:50:46.329,0:50:47.699 ako postupamo pravedno[br]i poštujemo prava, 0:50:47.699,0:50:51.279 0:50:51.279,0:50:52.609 društvu će u cjelini biti bolje,[br]dugoročno gledano. 0:50:52.609,0:50:55.949 0:50:55.949,0:50:57.999 Je li to uvjerljivo? 0:50:57.999,0:50:59.158 Ili, da li Mills ustvari, ne priznajući to,[br]izlazi izvan utilitarističkih okvira 0:50:59.159,0:51:04.549 0:51:04.549,0:51:06.219 0:51:06.219,0:51:07.789 zalažući se za kvalitativno[br]viša zadovoljstva 0:51:07.789,0:51:11.129 0:51:11.129,0:51:12.788 0:51:12.789,0:51:14.479 i za sveta, odnosno posebno važna,[br]prava pojedinca? 0:51:14.479,0:51:16.948 0:51:16.949,0:51:18.479 0:51:18.479,0:51:21.718 Mi nismo u potpunosti odgovorili[br]na to pitanje 0:51:21.719,0:51:23.809 jer da bi se odgovorilo na to pitanje,[br]u slučaju prava i pravednosti, 0:51:23.809,0:51:26.259 0:51:26.259,0:51:28.869 nužno bi bilo istražiti druge načine,[br]neutilitarističke načine, 0:51:28.869,0:51:30.419 0:51:30.419,0:51:33.368 0:51:33.369,0:51:35.030 tumačenja osnove prava 0:51:35.030,0:51:36.479 0:51:36.479,0:51:38.269 i onda se zapitati da li [br]su valjana. 0:51:38.269,0:51:40.408 0:51:40.409,0:51:42.949 Što se tiče Jeremy Benthama, 0:51:42.949,0:51:44.969 koji je lansirao utilitarizam[br]kao doktrinu i moralnu i pravnu filozofiju, 0:51:44.969,0:51:46.099 0:51:46.099,0:51:47.419 0:51:47.419,0:51:49.979 0:51:49.979,0:51:53.819 Bentham je umro 1832. [br]u dobi od 85 godina, 0:51:53.819,0:51:57.509 ali ako odete u London[br]možete ga i danas posjetiti, doslovno. 0:51:57.509,0:51:58.729 0:51:58.729,0:52:01.439 U svojoj oporuci pobrinuo se[br]da njegovo tijelo bude konzervirano, 0:52:01.440,0:52:03.390 0:52:03.390,0:52:05.489 balzamirano i izloženo [br]na sveučilištu University of London 0:52:05.489,0:52:07.739 0:52:07.739,0:52:11.069 gdje još uvijek vlada u staklenoj vitrini[br]s voštanom glavom u svom stvarnom odijelu. 0:52:11.069,0:52:12.950 0:52:12.950,0:52:14.989 0:52:14.989,0:52:17.049 Vidite, prije no što je umro Bentham si je[br]postavio pitanje sukladno svojoj filozofiji, 0:52:17.049,0:52:22.339 0:52:22.339,0:52:23.499 od kakve koristi bi mrtav čovjek[br]mogao biti živima? 0:52:23.499,0:52:26.839 0:52:26.839,0:52:30.499 Jedna korist, rekao je, bila bi staviti[br]svoj leš na raspolaganje 0:52:30.499,0:52:33.519 za studiranje anatomije. 0:52:33.519,0:52:37.129 U slučaju velikih filozofa, međutim, 0:52:37.129,0:52:38.159 jo je bolje sačuvati svoju fizičku prisutnost[br]kao inspiraciju budućim generacijama mislilaca. 0:52:38.159,0:52:44.919 0:52:44.919,0:52:47.618 Želite vidjeti kako izgleda punjeni Bentham? 0:52:47.619,0:52:50.410 Ovako izgleda. 0:52:50.410,0:52:53.549 0:52:53.549,0:52:55.459 Ako pogledate pažljivo,[br]primjetit ćete 0:52:55.459,0:52:57.459 0:52:57.459,0:52:58.529 da balzamiranje njegove stvarne glave[br]nije baš uspjelo pa su je zamijenili voštanom, 0:52:58.529,0:53:05.529 0:53:06.910,0:53:10.009 a na dnu radi vjerodostojnosti[br]možete vidjeti njegovu pravu glavu na tanjuru. 0:53:10.009,0:53:13.390 0:53:13.390,0:53:14.979 0:53:16.529,0:53:17.809 Vidite? 0:53:17.809,0:53:22.599 Ovdje. 0:53:22.599,0:53:25.709 Pa, koja je pouka priče? 0:53:25.709,0:53:29.499 Pouka priče ... 0:53:29.499,0:53:33.698 usput, vade ga za vrijeme zasjedanja vijeća[br]na University College London, 0:53:33.699,0:53:40.659 a u zapisniku ga bilježe kao prisutnog[br]bez prava glasa. 0:53:40.659,0:53:42.539 Ovdje je filozof u životu i smrti[br]koji se držao principa svoje filozofije. 0:53:42.539,0:53:45.109 0:53:45.109,0:53:46.769 0:53:46.769,0:53:48.399 0:53:48.400,0:53:55.400 Idući puta nastavit ćemo s pravima. 0:53:57.439,0:54:00.808 0:54:00.809,0:54:03.369 0:54:03.369,0:54:07.799 0:54:07.799,0:54:14.799 0:54:49.739,0:54:53.789 0:54:53.789,0:54:55.189