0:00:20.040,0:00:23.040 Pravednost Michael Sandel 0:00:23.920,0:00:26.580 Ima li život cijenu? 0:00:29.390,0:00:37.510 Prošli puta diskutirali smo o[br]slučaju Karljica protiv Dudleya i Stephensa, 0:00:39.400,0:00:43.790 slučaj u čamcu za spasavanje,[br]slučaj kanibalizma na moru, 0:00:45.970,0:00:49.620 i imajući na umu argumente[br]slučaja čamca za spasavanje, 0:00:49.839,0:00:53.220 argumente za i protiv onoga[br]što su učinili Dudley i Stephens, 0:00:54.150,0:01:00.200 vratimo se na utilitarističku filozofiju[br]Jeremya Benthama. 0:01:02.060,0:01:04.570 Bentham je rođen u Engleskoj 1748., 0:01:04.620,0:01:08.978 sa 12 godina pohađao je Oxford,[br]sa 15 se upisao na pravni fakultet. 0:01:09.740,0:01:14.920 Sa 19 primljen je u Odvjetničku komoru,[br]ali nikada se nije bavio pravom, 0:01:14.820,0:01:19.816 umjesto toga posvetio je život[br]filozofiji prava i filozofiji morala. 0:01:22.170,0:01:26.715 Prošli puta počeli smo razmatrati[br]Benthamovu verziju utilitarizma. 0:01:27.690,0:01:30.990 Glavna ideja, sažeto sročena,[br]je ova: 0:01:32.780,0:01:37.700 najviši princip morala,[br]bilo osobnog ili političkog morala, 0:01:40.529,0:01:43.780 je maksimiziranje općeg dobra 0:01:44.000,0:01:46.170 ili kolektivne sreće, 0:01:46.560,0:01:49.244 ili ukupne ravnoteže[br]zadovoljstva nad boli 0:01:50.070,0:01:53.338 u izrazu maksimizirane korisnosti. 0:01:56.150,0:01:59.747 Bentham dolazi do tog principa[br]rasuđujući na sljedeći način: 0:02:00.570,0:02:02.650 svima nama upravljaju bol i zadovoljstvo, 0:02:03.150,0:02:07.889 oni su naši suvereni gospodari,[br]pa ih svaki moralni sistem mora uzeti u obzir. 0:02:08.828,0:02:10.819 Kako ih najbolje uzeti u obzir? 0:02:10.999,0:02:12.392 Maksimiziranjem 0:02:13.739,0:02:17.999 i to vodi principu[br]'najvećeg dobra za najveći broj'. 0:02:19.400,0:02:21.394 Što bismo točno trebali maksimizirati? 0:02:22.749,0:02:24.978 Bentham nam kaže - sreću 0:02:25.510,0:02:28.256 ili, preciznije, korisnost. 0:02:28.679,0:02:33.439 Maksimiziranje korisnosti nije najvažnije[br]samo za pojedince, već i za zajednice 0:02:33.929,0:02:35.460 i zakonodavce. 0:02:36.569,0:02:39.239 Na koncu, što je zajednica?[br]- pita Bentham. 0:02:41.359,0:02:44.377 To je suma pojedinaca koji je sačinjavaju. 0:02:44.779,0:02:47.520 I zbog toga, u odlučivanju[br]o najboljim politikama, 0:02:47.650,0:02:51.360 u odlučivanju što bi trebalo biti zakon,[br]u odlučivanju što je pravedno, 0:02:52.380,0:02:56.609 građani i zakonodavci bi se trebali[br]zapitati: 0:02:56.609,0:03:00.760 Ako zbrojimo sve prednosti ove politike 0:03:03.870,0:03:06.447 i oduzmemo sve troškove, 0:03:08.829,0:03:11.429 ispravna stvar koju treba učiniti[br]je ona 0:03:11.779,0:03:16.665 koja maksimizira saldo[br]sreće nad patnjom. 0:03:20.869,0:03:22.629 To znači maksimizirati korisnost. 0:03:23.769,0:03:29.498 Danas želim ustanoviti da li se vi[br]slažete s tim ili ne. 0:03:30.700,0:03:36.200 A ta utilitarna logika često dolazi[br]pod nazivom analiza troškova i koristi 0:03:36.650,0:03:42.429 koju koriste kompanije i vlade[br]cijelo vrijeme. 0:03:43.369,0:03:49.578 A ono što ona uključuje je[br]vrednovanje, obično u dolarima, korisnosti, 0:03:50.899,0:03:54.797 kao i troškova i prednosti[br]raznih prijedloga. 0:03:56.309,0:03:58.529 Nedavno je u Republici Češkoj 0:03:58.879,0:04:02.700 predstavljen prijedlog za povećanje [br]trošarine na pušenje. 0:04:03.120,0:04:05.980 Philip Morris, duhanska kompanija, 0:04:07.679,0:04:10.439 ostvaruje veliku dobit[br]u Republici Češkoj. 0:04:10.669,0:04:14.579 Oni su naručili studiju analize[br]troškova i koristi 0:04:15.148,0:04:18.068 za pušenje u Republici Češkoj. 0:04:18.678,0:04:21.787 I ono što je ustanovila ta studija[br]analize troškova i koristi, 0:04:23.550,0:04:29.396 je da vlada ostvaruje dobit[br]zahvaljujući pušenju čeških građana. 0:04:30.779,0:04:32.360 Pa, kako ostvaruju dobit? 0:04:32.660,0:04:38.519 Istina je da postoje negativni učinci[br]na javne financije češke vlade, 0:04:40.000,0:04:45.694 zbog povećanih troškova zdravstva[br]za ljude koji pate od bolesti povezanih s pušenjem, 0:04:47.239,0:04:49.799 s druge strane, postoje pozitivni učinci, 0:04:50.730,0:04:54.600 a to su, pribrojeni na drugoj strani bilance, 0:04:55.379,0:04:59.180 pozitivni učinci su uključivali, [br]najvećim dijelom, razne porezne prihode 0:04:59.260,0:05:03.539 koje vlada ostvaruje prodajom[br]duhanskih proizvoda, 0:05:03.800,0:05:08.305 no također su uključivali uštede[br]u zdravstvu kad ljudi umiru ranije, 0:05:08.910,0:05:12.466 uštede na penzijama[br]- ne morate plaćati penzije tako dugo - 0:05:13.339,0:05:17.149 i također uštede na troškovima[br]domova za starije. 0:05:19.679,0:05:22.679 I kad su bili sumirani svi troškovi i koristi, 0:05:24.640,0:05:27.340 studija Philip Morrisa je ustanovila 0:05:27.870,0:05:32.010 da neto dobit javnih financija[br]Republike Češke iznosi 0:05:32.610,0:05:35.479 147 milijuna dolara, 0:05:36.449,0:05:40.670 a u odnosu na uštede na smještaju[br]i zdravstvenoj skrbi i mirovinama, 0:05:41.407,0:05:50.839 vlada uživa uštedu od preko 1200 dolara za[br]svaku osobu koja prerano umre zbog pušenja. 0:05:51.919,0:05:53.870 Analiza troškova i koristi. 0:05:56.740,0:06:02.289 Oni od vas koji brane utilitarizam[br]mogli bi pomisliti da ovaj test nije fer. 0:06:03.389,0:06:09.130 Philip Morris je bio razapet u štampi[br]i objavio je ispriku za ovu bezdušnu kalkulaciju. 0:06:10.680,0:06:13.089 Mogli biste reći da je ono što[br]ovdje nedostaje 0:06:13.139,0:06:17.252 nešto što utilitaristi mogu lako[br]ugraditi, napose 0:06:19.339,0:06:24.160 vrijednost za osobu i obitelji[br]onih koji umiru od raka pluća. 0:06:25.599,0:06:27.642 A što je sa vrijednošću života? 0:06:29.190,0:06:35.554 Neke analize troškova i koristi[br]sadržavaju mjeru za vrijednost života. 0:06:36.809,0:06:40.933 Jedan od najpoznatijih je slučaj [br]Ford Pinto automobila. 0:06:41.330,0:06:44.138 Je li itko čitao o tome?[br]To je bilo 1970.-tih. 0:06:44.298,0:06:47.499 Sjećate se da je Ford Pinto[br]bio marka automobila? 0:06:47.750,0:06:48.639 Itko? 0:06:51.029,0:06:54.899 To je bio mali auto, kompakt klase,[br]vrlo popularan, 0:06:55.949,0:07:00.849 ali imao je jedan problem, a to je[br]da je rezervoar za gorivo bio straga 0:07:01.599,0:07:04.718 i kod udarca u stražnji dio [br]rezervoar bi eksplodirao 0:07:07.660,0:07:11.570 i neki ljudi su poginuli,[br]a neki su bili ozbiljno povrijeđeni. 0:07:13.749,0:07:18.348 Žrtve tih nesreća tužile su Ford, 0:07:18.768,0:07:21.438 a na suđenju se ispostavilo 0:07:21.669,0:07:26.710 da je Ford odavno znao[br]za riskantnost rezervoara za gorivo 0:07:27.499,0:07:32.169 i da je napravio analizu troškova i koristi[br]kako bi ustanovio da li bi se isplatilo 0:07:33.599,0:07:35.833 ugraditi posebni štit 0:07:36.090,0:07:39.574 koji bi zaštitio rezervoar[br]i spriječio da eksplodira. 0:07:40.490,0:07:42.519 Napravili su analizu troškova i koristi; 0:07:42.979,0:07:48.766 cijena dijela koji bi povećao[br]sigurnost Pinta, 0:07:50.299,0:07:53.568 izračunali su da iznosi 11 dolara[br]po komadu. 0:07:55.939,0:08:01.347 A ovo je analiza troškova i koristi[br]koja se pojavila na suđenju, 0:08:02.879,0:08:08.812 11 dolara po komadu[br]za 12,5 milijuna automobila i kamiona 0:08:09.670,0:08:15.938 iznosila je ukupno 137 milijuna dolara[br]za povećanje sigurnosti. 0:08:17.370,0:08:22.178 A onda su izračunali prednosti ulaganja[br]tog novca u sigurniji auto. 0:08:23.300,0:08:28.197 Prebrojali su 180 smrti[br]i pridijelili dolarsku vrijednost: 0:08:29.130,0:08:31.079 200 tisuća dolara po jednoj smrti. 0:08:32.170,0:08:36.820 180 povreda - 67 tisuća dolara; 0:08:37.490,0:08:40.999 i onda troškovi popravka i zamjene[br]za 2000 vozila, 0:08:40.999,0:08:44.174 koji bi bili uništeni bez tog zaštitnog dijela, 0:08:44.719,0:08:46.875 700 dolara po vozilu. 0:08:48.060,0:08:53.690 Tako se pokazalo da bi prednosti[br]iznosile samo 49,5 milijuna 0:08:53.930,0:08:56.920 i stoga nisu ugradili tu zaštitu. 0:08:57.570,0:09:00.519 Nepotrebno je napominjati,[br]da kad se taj memo 0:09:01.700,0:09:06.420 o analizi troškova i koristi kompanije[br]Ford Motor Company pojavio na suđenju, 0:09:09.160,0:09:13.220 prenerazio je porotnike,[br]koji su dosudili goleme odštete. 0:09:15.950,0:09:20.020 Je li to protuprimjer za [br]utilitarističku ideju izračuna? 0:09:20.360,0:09:24.644 Jer Ford je uključio mjeru[br]za vrijednost života. 0:09:27.320,0:09:31.940 Tko bi od vas želio braniti[br]analizu troškova i koristi 0:09:33.190,0:09:35.120 u ovom očitom protuprimjeru? 0:09:35.320,0:09:36.740 Tko ima obranu? 0:09:38.520,0:09:43.350 Ili mislite da to u potpunosti ruši[br]cijeli utiilitaristički izračun? 0:09:47.410,0:09:50.970 Ja mislim da su opet napravili isti grešku[br]kao u prethodnom slučaju 0:09:51.220,0:09:56.116 pridijelivši dolarsku vrijednost ljudskom životu[br]ne uzimajući u obzir stvari poput 0:09:56.270,0:10:02.990 patnje i emocionalni gubitak obitelji,[br]koje su izgubile prihode, ali i svoje voljene. 0:10:03.860,0:10:06.700 a to vrijedi više od 200 tisuća dolara. 0:10:06.820,0:10:08.540 Čekajte, kako se vi zovete? 0:10:09.171,0:10:10.177 Julie Roto. 0:10:10.480,0:10:15.060 Pa, Julie, 200 tisuća je preniska cifra 0:10:15.230,0:10:20.100 jer ne uključuje gubitak voljenih[br]i gubitak svih tih godina života. 0:10:21.660,0:10:25.650 Što vi mislite, koji bi broj bio točniji? 0:10:26.970,0:10:28.660 Ne vjerujem da mogu dati broj, 0:10:28.660,0:10:32.669 mislim da se takva vrsta analize ne bi smjela[br]koristiti u pitanjima ljudskog života. 0:10:32.764,0:10:34.943 Mislim da se to ne može izraziti novčano. 0:10:35.100,0:10:38.170 Dakle, oni ne samo da su stavili[br]premalu brojku, 0:10:39.270,0:10:42.672 kaže Julie, nego su pogriješili[br]stavljajući bilo koji broj. 0:10:44.510,0:10:46.230 U redu, da čujemo nekoga tko ... 0:10:49.540,0:10:51.860 Morate uzeti u obzir inflaciju? 0:10:58.260,0:10:59.690 U redu, pošteno. 0:11:00.050,0:11:02.250 Pa koji bi to onda broj sada bio? 0:11:02.660,0:11:04.875 To je bilo prije 35 godina. 0:11:07.370,0:11:08.970 Dva milijuna dolara? 0:11:10.090,0:11:11.540 Vi bi stavili dva milijuna? 0:11:12.030,0:11:13.269 A kako se vi zovete? 0:11:13.269,0:11:14.099 Voicheck. 0:11:14.309,0:11:16.758 Voicheck kaže, moramo[br]uzeti u obzir inflaciju 0:11:17.330,0:11:19.049 Trebali bi biti velikodušniji. 0:11:19.360,0:11:23.370 Bi li tada smatrali da je ovo ispravan način[br]razmišljanja o tom pitanju? 0:11:25.170,0:11:31.350 Pretpostavljam, nažalost tu negdje[br]treba staviti broj, 0:11:32.161,0:11:34.440 nisam siguran koji bi to broj bio, 0:11:34.480,0:11:40.430 ali se slažem da bi se mogao[br]staviti broj na ljudski život. 0:11:41.060,0:11:43.109 U redu. Dakle Voicheck kaže, 0:11:44.260,0:11:46.470 i tu se ne slaže s Julie, ... 0:11:46.649,0:11:51.480 Julie kaže, ne možemo staviti broj na[br]ljudski život u svrhu analize troškova i koristi. 0:11:51.690,0:11:56.030 Voicheck kaže - moramo[br]jer moramo donositi odluke, nekako. 0:11:59.520,0:12:01.902 Što drugi misle o tome? 0:12:01.980,0:12:05.340 Je li itko ovdje spreman braniti[br]analizu troškova i koristi? 0:12:06.200,0:12:08.060 Kao točnu i poželjnu? 0:12:09.810,0:12:14.460 Ja mislim kad Ford i druge auto kompanije[br]ne bi koristile analizu troškova i koristi 0:12:15.260,0:12:18.209 na koncu bi propale jer ne bi mogle[br]biti profitabilne 0:12:18.489,0:12:21.749 i milijuni ljudi ne bi mogli koristiti[br]njihove aute za odlazak na posao 0:12:21.749,0:12:24.195 kako bi prehranili svoju djecu. 0:12:24.385,0:12:27.725 Zato mislim da ako se ne [br]koristi analiza troškova i koristi 0:12:28.340,0:12:32.478 žrtvuje se opće dobro u tom slučaju. 0:12:32.810,0:12:34.500 Dobro, da vas pitam[br]kako se zovete? 0:12:34.530,0:12:35.279 Raul. 0:12:37.589,0:12:42.399 Raul, nedavno je provedena studija o[br]upotrebi mobitela u autu za vrijeme vožnje 0:12:42.760,0:12:45.340 i vodila se diskusija o tome[br]treba li to zabraniti 0:12:48.660,0:12:53.611 Procjena je da oko 2000 ljudi umire 0:12:54.810,0:13:00.240 u nesrećama svake godine[br]zbog korištenja mobitela. 0:13:00.900,0:13:06.640 a ipak analiza troškova i koristi koju je[br]napravio Centar za analizu rizika na Harvardu 0:13:07.860,0:13:11.980 ustanovila je da ako pogledate [br]prednosti korištenja mobitela 0:13:13.560,0:13:18.439 i procijenite vrijednost života,[br]dođe skoro na isto 0:13:19.050,0:13:23.960 zbog goleme ekonomske koristi[br]omogućavanja ljudima da iskoriste vrijeme, 0:13:24.040,0:13:27.330 da ne gube vrijeme, da mogu ugovarati poslove[br]i razgovarati s prijateljima i tako dalje 0:13:27.370,0:13:28.720 za vrijeme dok voze. 0:13:29.900,0:13:36.140 Ne sugerira li to da je pogrešno[br]ljudski život vrednovati novčanim iznosima? 0:13:37.590,0:13:40.564 Pa, ja mislim da ako velika većina ljudi 0:13:41.320,0:13:45.369 pokušava izvući maksimalnu korist[br]iz usluge kao što je upotreba mobitela 0:13:45.880,0:13:47.739 i pogodnosti koju pružaju mobiteli, 0:13:47.989,0:13:52.710 tada je žrtva nužna[br]da bi ljudi bili zadovoljni. 0:13:53.230,0:13:55.649 Vi ste otvoreno utilitarista?! 0:13:56.530,0:13:57.270 Da. 0:14:00.020,0:14:01.318 Zadnje pitanje Raul, 0:14:03.600,0:14:05.619 a postavio sam ga i Voichecku. 0:14:05.679,0:14:11.670 Koja bi morala biti cijena ljudskog života[br]u dolarima da bi se zabranilo korištenje mobitela? 0:14:12.870,0:14:17.709 Ne želim proizvoljno računati brojke[br]ovoga časa... 0:14:21.350,0:14:23.359 Želite li to uzeti u razmatranje? 0:14:23.610,0:14:24.790 Da, uzet ću to ... 0:14:25.090,0:14:28.069 Ali ugrubo, koliko bi to bilo?[br]Imate 2300 smrti, 0:14:28.690,0:14:31.970 morate odrediti dolarsku vrijednost[br]da biste znali želite li spriječiti te smrti 0:14:32.010,0:14:34.539 zabranom upotrebe mobitela u autima. 0:14:36.660,0:14:39.940 Pa, imate li neki osjećaj koliko? 0:14:40.350,0:14:41.859 Milijun, dva milijuna? 0:14:42.280,0:14:44.170 Dva milijuna je bila Voitechova cifra. 0:14:44.410,0:14:46.410 Je li to otprilike točno? - Možda milijun. 0:14:46.490,0:14:47.770 Milijun?! - Da. 0:14:51.140,0:14:52.090 Dobro je, hvala. 0:14:54.650,0:14:59.359 To su neke kontraverze koje danas[br]proizlaze iz analize troškova i koristi, 0:14:59.549,0:15:05.130 posebno one koje uključuju pridjeljivanje[br]dolarske vrijednosti svemu što ulazi u zbroj. 0:15:06.770,0:15:09.840 Sada bih se želio okrenuti vašim prigovorima, 0:15:09.960,0:15:14.560 vašim prigovorima, ne nužno na[br]analizu troškova i koristi izričito, 0:15:14.740,0:15:20.249 jer to je samo jedna verzija[br]utilitarističke logike u današnjoj praksi, 0:15:21.720,0:15:24.010 nego na teoriju u cjelini, 0:15:24.200,0:15:28.220 na ideju da je ispravni postupak, 0:15:30.000,0:15:32.630 pravedna osnova za[br]politikičke mjere i zakon, 0:15:33.710,0:15:36.190 maksimiziranje korisnosti. 0:15:39.750,0:15:43.440 Koliko vas se ne slaže[br]s utilitarističkim pristupom 0:15:44.330,0:15:47.510 zakonu i općem dobru? 0:15:48.330,0:15:49.890 Koliko vas se slaže s njim? 0:15:52.070,0:15:54.970 Dakle više vas je koji se slažu[br]nego onih koji se ne slažu. 0:15:55.200,0:15:56.780 Pa da čujemo kritičare. 0:15:59.560,0:16:03.059 Moj glavni problem s tim je da mi se čini[br]da ne možete reći ... 0:16:03.549,0:16:05.230 samo zato što je netko u manjini, 0:16:06.280,0:16:11.063 da su njegove želje i potrebe[br]manje vrijedne nego onih koji su u većini. 0:16:11.650,0:16:13.939 Pretpostavljam da imam problem [br]s idejom da je 0:16:14.102,0:16:16.607 'najveće dobro za najveći broj' u redu, 0:16:16.697,0:16:21.401 jer što je onda s ljudima[br]kojih je manji broj, 0:16:21.500,0:16:25.634 to onda nije fer prema njima jer[br]nemaju pravo glasa o tome što oni žele. 0:16:25.840,0:16:30.030 To je zanimljiv prigovor, vi brinete[br]o učinku na manjinu? 0:16:30.940,0:16:31.850 Da. 0:16:32.270,0:16:33.380 Usput, kako se zovete? 0:16:33.500,0:16:34.300 Anna. 0:16:35.299,0:16:39.639 Tko ima odgovor na Anninu brigu[br]za učinak na manjinu? 0:16:39.960,0:16:41.360 Što kažete Anni? 0:16:41.450,0:16:45.170 Onaje rekla da manjine vrijede manje.[br]Ja mislim da to nije slučaj 0:16:45.260,0:16:50.443 jer pojedinci u manjini vrijede[br]sasvim jednako kao pojedinci u većini, 0:16:50.599,0:16:54.580 samo je stvar u tome da brojevi[br]nadilaze manjinu. 0:16:56.210,0:16:58.269 U određenom trenutku[br]morate donijeti odluku 0:16:58.969,0:17:04.260 i žao mi je manjine, ali ponekad[br]je to za opće, veće dobro. 0:17:04.450,0:17:07.130 Za veće dobro. Anna, što vi kažete?[br]Vaše ime? 0:17:07.650,0:17:08.510 Youngda. 0:17:08.664,0:17:10.174 Što kažete Youngdai? 0:17:10.429,0:17:13.339 Youngda kaže, morate samo zbrojiti[br]preferencije ljudi, 0:17:13.439,0:17:16.738 a preferencije onih u manjini[br]zaista se mjere. 0:17:17.309,0:17:20.070 Možete li dati neki primjer[br]za ono što vas brine 0:17:20.260,0:17:26.820 kad kažete da ste zabrinuti da utilitarizam[br]krši interes i uvažavanje manjine? 0:17:27.970,0:17:29.730 Možete li dati neki primjer? 0:17:30.050,0:17:33.593 Pa, u odnosu na svaki od slučajeva[br]o kojima smo govorili, poput brodoloma, 0:17:35.179,0:17:41.662 mislim da je dječak koji je pojeden ipak[br]imao jednako pravo na život kao i drugi ljudi, 0:17:43.560,0:17:48.966 a samo zato što je bio 'manjina'[br]u tom slučaju, 0:17:49.100,0:17:52.940 onaj koji je možda imao manje šanse[br]da nastavi živjeti, 0:17:53.460,0:17:57.662 to ne znači da drugi automatski[br]imaju pravo da ga pojedu 0:17:58.450,0:18:02.500 samo zato jer bi to većem broju ljudi[br]pružilo šansu da preživi. 0:18:03.290,0:18:09.570 Dakle, možda postoje određena prava[br]koja imaju manjine, odnosno pojedinac, 0:18:09.980,0:18:15.290 koja ne bi smjela biti razmjenjivana[br]u ime korisnosti? 0:18:16.520,0:18:17.640 Da, Anna? 0:18:18.210,0:18:20.414 Ovo bi bio test za vas. 0:18:21.990,0:18:27.843 U drevnom Rimu bacali su kršćane lavovima[br]u koloseumu iz sporta. 0:18:29.510,0:18:32.713 Ako razmislite o načinu [br]utilitarističkog računanja - 0:18:33.890,0:18:38.154 da, krščanin bačen lavu proživljava[br]ogromni nepodnošljivi bol, 0:18:38.770,0:18:41.720 ali pogledajte kolektivnu ekstazu Rimljana! 0:18:45.150,0:18:46.427 Youngda. 0:18:50.580,0:18:51.889 Pa, u to vrijeme ... 0:18:54.920,0:19:00.820 U moderno vrijeme, uzimajući u obzir[br]radost pruženu ljudima koji gledaju, 0:19:01.680,0:19:10.890 mislim da niti jedan zakonodavac ne bi[br]rekao da je patnja jednog čovjeka puno ... 0:19:12.090,0:19:14.410 u usporedbi sa radošću koju donosi ... 0:19:14.680,0:19:19.992 Ne, ali morate priznati da u slučaju da je[br]dovoljan broj Rimljana bio izbezumljen od sreće 0:19:20.460,0:19:26.211 to bi prevagnulo čak i najužasniju bol[br]nekolicine kršćana bačenih lavovima. 0:19:28.600,0:19:32.651 Dakle, zaista ovdje imamo[br]dva različita prigovora utilitarizmu. 0:19:33.570,0:19:41.830 Jedan se odnosi na primjereno [br]poštovanje ljudskih prava odnosno prava manjina. 0:19:42.500,0:19:52.350 A drugi se odnosi na cijelu ideju objedinjavanja[br]korisnosti ili preferencija ili vrijednosti. 0:19:53.070,0:19:59.120 Da li je moguće objediniti sve vrijednosti[br]i prevesti ih u dolarsku vrijednost? 0:20:02.460,0:20:13.079 1930.-ih bio je jedan psiholog[br]koji je pokušao govoriti o drugom pitanju. 0:20:13.300,0:20:17.730 Pokušao je dokazati ono što[br]utilitarizam smatra istinom, 0:20:18.530,0:20:24.700 da je zaista moguće prevesti[br]sve robe, sve vrijednosti, 0:20:24.840,0:20:26.300 sve do čega je ljudima stalo, 0:20:26.419,0:20:28.692 u jedinstvenu uniformnu mjeru, 0:20:28.909,0:20:34.290 a to je učinio tako da je proveo anketu[br]među mladim primateljima socijalne pomoći. 0:20:34.390,0:20:36.190 To je bilo 1930. -tih. 0:20:37.610,0:20:41.449 Dao im je listu neugodnih doživljaja 0:20:42.000,0:20:46.550 i pitao ih, 'Koliko bi trebali biti plaćeni[br]da pristanete proživjeti ove stvari?' 0:20:47.021,0:20:48.448 I vodio je bilješke. 0:20:49.530,0:20:54.606 Na primjer, 'Koliko biste morali biti plaćeni[br]da pristanete na vađenje prednjeg gornjeg zuba?' 0:20:56.840,0:21:02.676 ili 'Koliko bi trebali biti plaćeni da pristanete[br]da vam se odsiječe jedan mali nožni prst?' 0:21:05.030,0:21:08.781 ili ' da jedete žive gliste od 20 cm' 0:21:10.510,0:21:15.050 ili 'da ostatak života proživite[br]na farmi u Kansasu' 0:21:19.430,0:21:22.790 ili 'da golim rukama zadavite[br]mačku lutalicu'? 0:21:24.400,0:21:29.565 Što mislite, koja je bila najskuplja[br]stavka na toj listi? 0:21:32.410,0:21:33.520 Kansas? 0:21:39.750,0:21:41.825 U pravu ste, bio je to Kansas. 0:21:44.840,0:21:50.578 Za Kansas ljudi su rekli da bi morali[br]biti plaćeni 300.000 dolara. 0:21:57.340,0:22:02.127 Što mislite koja je bila sljedeća[br]najskuplja stavka? 0:22:02.900,0:22:03.970 Nije mačka, 0:22:05.710,0:22:06.610 nije zub, 0:22:07.670,0:22:09.480 nije nožni prst, 0:22:10.900,0:22:12.061 glista! 0:22:16.290,0:22:21.485 Ljudi su rekli da bi im trebali platiti[br]sto tisuća dolara da pojedu glistu! 0:22:23.000,0:22:25.990 Što mislite da je bila [br]najmanje skupa stavka? 0:22:27.730,0:22:28.770 Nije mačka, 0:22:30.010,0:22:30.910 zub! 0:22:31.300,0:22:37.100 U vrijeme depresije ljudi su bili voljni[br]da im se izvadi zub za samo 4.500 dolara. 0:22:40.150,0:22:46.200 Evo što je Thorndike zaključio[br]iz svog istraživanja: 0:22:47.750,0:22:53.630 svaka želja ili užitak koji postoje,[br]postoje u nekoj količini i stoga su mjerljivi. 0:22:54.600,0:22:57.939 Život psa ili mačke ili kokoši 0:22:58.109,0:23:03.369 sastoji se od apetita,[br]žudnji, želja i zadovoljenja. 0:23:04.290,0:23:10.331 Isto vrijedi za život ljudskih bića,[br]iako su apetiti i želje kompliciraniji. 0:23:12.450,0:23:15.022 Ali što je s Thorndikeovom studijom? 0:23:15.570,0:23:18.970 Podržava li ona Benthamovu ideju 0:23:20.210,0:23:23.170 da sva dobra, sve vrijednosti 0:23:23.360,0:23:27.809 mogu biti obuhvaćeni jednom[br]uniformnom mjerom vrijednosti 0:23:28.190,0:23:32.139 ili besmislenost ovih stavki na listi 0:23:33.459,0:23:36.390 sugerira suprotni zaključak 0:23:37.220,0:23:42.736 da možda - bez obzira govorimo li[br]o životu ili Kanzasu ili glisti - 0:23:44.180,0:23:48.485 možda stvari koje su nam vrijedne i važne 0:23:49.180,0:23:53.670 ne mogu biti obuhvaćene jednom[br]uniformnom mjerom vrijednosti. 0:23:54.280,0:24:00.929 A ako ne mogu, koje su posljedice[br]za utilitarističku teoriju morala? 0:24:01.750,0:24:04.797 To je pitanje kojim ćemo[br]nastaviti sljedeći puta. 0:24:13.179,0:24:16.370 Uzmimo sada drugi dio glasova. 0:24:17.370,0:24:22.159 Koji je doživljaj najvećeg užitka? 0:24:23.040,0:24:25.927 Koliko vas kaže Shakespeare? 0:24:26.137,0:24:28.467 KAKO MJERITI UGODU 0:24:31.720,0:24:35.457 Koliko vas kaže Fear Factor[br](Faktor straha, serija)? 0:24:38.120,0:24:40.546 Ne, nemoguće da ste ozbiljni,[br]zaista? 0:24:47.820,0:24:51.890 Prošli puta počeli smo razmatrati[br]neke prigovore 0:24:53.510,0:24:57.720 na verziju utilitarizma[br]Jeremy Benthama. 0:25:01.790,0:25:05.890 U raspravi koju smo vodili[br]ljudi su iznijeli dva prigovora. 0:25:08.380,0:25:12.520 Prvi prigovor odnosno tvrdnja bila je 0:25:12.710,0:25:18.890 da utilitarizam baveći se[br]'najvećim dobrom za najveći broj' 0:25:19.450,0:25:23.733 propušta primjereno poštovati[br]prava pojedinca. 0:25:24.970,0:25:30.780 Danas imamo debate[br]o mučenju i terorizmu. 0:25:33.210,0:25:38.739 Pretpostavimo da je osumnjičeni terorist[br]uhićen 10. rujna 0:25:40.980,0:25:45.969 i imate razloga vjerovati[br]da je osumnjičeni 0:25:46.320,0:25:49.640 imao ključne informacije o[br]predstojećem terorističkom napadu 0:25:49.750,0:25:51.580 u kojem će poginuti preko 3000 ljudi. 0:25:52.200,0:25:54.799 I ne može izvući informacije iz njega? 0:25:55.280,0:26:00.118 Da li bi bilo pravedno mučiti[br]osumnjičenika 0:26:01.070,0:26:02.717 kako bi se dobile informacije? 0:26:03.060,0:26:03.930 Ili 0:26:05.550,0:26:11.880 kažete - Ne, postoji kategorična moralna[br]obaveza poštovanja prava pojedinca 0:26:14.290,0:26:17.439 Na neki način vratili smo se na pitanje[br]s kojim smo počeli, 0:26:17.640,0:26:21.176 o tramvaju i transplantaciji organa.[br]To je prvo sporno pitanje. 0:26:23.910,0:26:28.766 I sjećate se da smo razmatrali[br]neke primjere analize troškova i koristi. 0:26:29.250,0:26:33.116 Ali mnogo ljudi nije bilo zadovoljno[br]s analizom troškova i koristi 0:26:33.870,0:26:37.625 kad se radilo o pridjeljivanju[br]dolarske vrijednosti ljudskom životu. 0:26:39.970,0:26:43.013 I to nas je dovelo do drugog prigovora 0:26:44.500,0:26:47.961 koji je doveo u pitanje mogućnost[br]prevođenja svih vrijednosti 0:26:48.510,0:26:51.549 na jednu uniformnu mjeru vrijednosti. 0:26:52.610,0:26:56.386 Drugim riječima, pitanje je[br]jesu li sve vrijednosti sumjerljive. 0:26:57.580,0:27:05.344 Da vam dam još jedan primjer, ustvari,[br]istinitu priču iz osobnog iskustva, 0:27:07.240,0:27:13.380 koja barem postavlja pitanje mogu li se[br]sve vrijednosti prevesti bez gubitka 0:27:13.610,0:27:15.911 u utilitaritarističke termine. 0:27:19.759,0:27:21.609 Prije nekoliko godina 0:27:22.110,0:27:25.170 kad sam bio na diplomskom studiju[br]na Oxfordu u Engleskoj, 0:27:25.270,0:27:29.400 i postojali su muški i ženski fakulteti,[br]još nisu bili miješani. 0:27:29.800,0:27:34.658 I ženski fakulteti imali su pravila[br]zabrane noćnih posjeta za muške goste. 0:27:37.470,0:27:42.843 U 1970.-ima ta su se pravila rijetko[br]provodila i često kršila 0:27:44.030,0:27:45.870 ili su mi tako rekli. 0:27:51.600,0:27:55.939 Kasnih sedamdesetih, kad sam ja bio tamo,[br]porastao je pritisak za ublažavanje tih pravila 0:27:55.969,0:28:01.060 i to je postalo predmet diskusije[br]na St. Anne College, 0:28:01.100,0:28:03.411 koji je bio jedan od tih fakulteta[br]samo za žene. 0:28:03.840,0:28:07.480 Starije žene na fakultetu[br]bile su tradicionalisti, 0:28:07.550,0:28:11.640 protivile su se promjeni[br]na konvencionalnim moralnim osnovama. 0:28:12.820,0:28:15.543 No, vremena su se promijenila[br]i bilo im je neugodno 0:28:16.980,0:28:19.870 iznijeti pravu osnovu [br]svojih prigovora. 0:28:20.000,0:28:24.069 I zato su svoje argumente prevele[br]u utilitarističke termine. 0:28:25.640,0:28:30.326 Ako muškarci ostaju preko noći,[br]tvrdile su, povećat će se troškovi fakulteta. 0:28:31.460,0:28:33.270 Kako, možda se pitate? 0:28:33.490,0:28:37.119 Pa, poželjet će se okupati[br]i potrošit će našu toplu vodu, rekle su. 0:28:38.879,0:28:43.198 Nadalje, tvrdile su, morat ćemo[br]češće mijenjati madrace. 0:28:46.780,0:28:51.325 Reformatori su udovoljili tim zahtjevima[br]usvajajući sljedeće kompromise: 0:28:52.120,0:28:57.300 svaka žena može imati do tri[br]noćna gosta tjedno 0:29:01.160,0:29:04.827 - nisu rekli da li to mora biti ista osoba[br]ili tri različite - 0:29:05.410,0:29:08.716 uz uvjet, i u tome je bio kompromis,[br]uz uvjet 0:29:09.240,0:29:13.731 da gost plaća 50 pensa[br]da namiri trošak fakulteta. 0:29:15.340,0:29:20.345 Sljedeći dan pojavio se naslov[br]u nacionalnim novinama: 0:29:20.840,0:29:24.880 'Djevojke na St Anne, 50 pensa za noć'! 0:29:29.090,0:29:35.130 Još jedna ilustracija teškoće[br]prevođenja svih vrijednosti, 0:29:36.150,0:29:38.585 - u ovom slučaju određene ideje vrline - 0:29:38.930,0:29:41.054 u utilitarističke termine. 0:29:42.900,0:29:49.970 Dakle, ovo sve je za ilustraciju [br]drugog prigovora utilitarizmu, 0:29:50.050,0:29:53.899 barem onog dijela tog prigovora[br]koji dovodi u pitanje 0:29:54.780,0:29:56.620 ispravnost utilitarizma u stajalištu 0:29:58.570,0:30:00.759 da možemo prihvatiti uniformnost vrijednosti,[br]sumjerljivost svih vrijednosti, 0:30:02.420,0:30:08.230 i prevesti sva moralna razmatranja[br]u dolare odnosno novac. 0:30:12.220,0:30:14.510 No postoji i drugi aspekt brige u vezi[br]agregiranja vrijednosti i preferencija. 0:30:19.690,0:30:21.990 Zašto bismo trebali odvagnuti[br]sve preferencije koje ljudi imaju 0:30:27.390,0:30:32.650 bez procjenjivanja jesu li te preferencije[br]dobre ili loše? 0:30:32.650,0:30:35.120 Ne bismo li trebali razlikovati[br]više i niže užitke? 0:30:41.760,0:30:44.250 Dio sklonosti da ne radimo kvalitatine razlike[br]između vrijednosti preferencija ljudi, 0:30:49.380,0:30:50.820 djelomično smo tome skloni zato[br]jer je to neosuđujuće i egalitaristički. 0:30:55.250,0:30:58.110 Benthamski utilitarista kaže: 0:30:58.110,0:31:01.199 Svačije preferencije se računaju[br]bez obzira na to što ljudi žele, 0:31:04.890,0:31:08.580 bez obzira na to što veseli različite ljude. 0:31:08.580,0:31:09.530 Za Benthama, važno je jedino,[br]sjetit ćete se, 0:31:09.530,0:31:11.250 intenzitet ili trajanje zadovoljstva ili boli. 0:31:18.270,0:31:24.040 Takozvana viša zadovoljstva ili plemenite[br]vrline su jednostavno one, prema Benthamu, 0:31:24.040,0:31:25.420 koje proizvode jače, duže zadovoljstvo. 0:31:29.380,0:31:32.790 Čuvena fraza za iskazivanje te ideje je 0:31:32.790,0:31:35.770 'količina zadovoljstva je jednaka,[br]radi li se o pribadači ili poeziji'. 0:31:39.519,0:31:41.789 Što je bila 'pribadača'? 0:31:41.789,0:31:46.929 Bila je to neka vrsta dječje igre,[br]'igra pribadača dobra je koliko i poezija', 0:31:46.929,0:31:48.850 rekao je Bentham. 0:31:48.850,0:31:50.509 A, mislim da ispod te ideje leži[br]tvrdnja, slutnja, 0:31:54.090,0:31:55.870 da je oholo prosuđivati čija su zadovoljstva[br]intrinzično viša ili vrednija ili bolja. 0:32:03.850,0:32:07.010 I ima nešto privlačno u tom odbijanju[br]da se prosuđuje, 0:32:07.010,0:32:09.770 na koncu neki ljudi vole Mozarta,[br]drugi Madonnu, 0:32:12.520,0:32:15.090 neki ljudi vole balet,[br]drugi kuglanje. 0:32:17.360,0:32:19.439 Tko kaže, mogao bi tvrditi Bentham, 0:32:19.440,0:32:23.140 tko će reći koja od zadovoljstava, 0:32:23.140,0:32:24.260 čija zadovoljstva su viša, vrednija,[br]plemenitija od drugih? 0:32:31.570,0:32:35.980 Ali, je lli to ispravno? 0:32:35.980,0:32:40.310 To odbijanje da radimo[br]kvalitativne razlike. 0:32:40.310,0:32:42.179 Možemo li se mi, svi zajedno,[br]odreći ideje 0:32:45.170,0:32:49.010 da su određene stvari koje nam[br]čine zadovoljstvo bolje ili vrednije od drugih? 0:32:53.890,0:32:58.640 Sjetite se Rimljana u koloseumu,[br]jedna stvar koja je u tome ljude smetala 0:32:58.960,0:33:01.170 bilo je da su se time izgleda[br]kršila prava kršćana. 0:33:04.490,0:33:07.250 Druga zamjerka onome što se tu događa 0:33:07.250,0:33:10.720 je uživanje Rimljana u tom krvavom spektaklu. 0:33:13.480,0:33:15.850 Treba li to zadovoljstvo, koje je sramotno[br]i na neki način korumpirano, 0:33:19.130,0:33:22.730 ponižavajuće zadovoljstvo. 0:33:22.730,0:33:26.960 Treba li to uopće biti valorizirano[br]odnosno vagano pri odlučivanju 0:33:26.960,0:33:33.770 o tome što je opće dobro? 0:33:33.770,0:33:38.760 Dakle, ovo su prigovori na Benthamov[br]uitlitarizam, 0:33:38.760,0:33:42.800 a sada se okrećemo nekome[br]tko je pokušao odgovoriti na te prigovore, 0:33:45.890,0:33:47.820 mlađi utilitarista, John Stuart Mill. 0:33:50.120,0:33:52.780 Ono što sada trebamo ispitati 0:33:54.510,0:33:58.809 je da li John Stuart Mill ima uvjerljivi[br]odgovor na ove prigovore utilitarizmu. 0:34:05.090,0:34:06.750 John Stuart Mill je rođen 1806., njegov otac,[br]James Mill bio je Benthamov učenik 0:34:14.079,0:34:17.389 i James Mill se odlučio svom sinu, Johnu[br]Stuartu Millu, dati primjereno obrazovanje. 0:34:20.329,0:34:22.429 On je bio čudo od djeteta, John Stuart Mill, 0:34:23.569,0:34:27.859 znao je grčki s tri godine,[br]latinski s osam, 0:34:27.859,0:34:29.139 a u dobi od 10 godina napisao je[br]Povijest rimskog prava. 0:34:33.659,0:34:35.649 U dobi od 20 godina [br]doživio je živčani slom, 0:34:35.649,0:34:39.129 to ga je bacilo u depresiju pet godina, 0:34:39.129,0:34:43.549 ali sa 25, ono što mu je pomoglo[br]da se izvuče iz te depresije 0:34:46.800,0:34:49.949 je susret s Harriet Taylor. 0:34:49.949,0:34:52.659 Ona Mill su se oženili i živjeli sretno[br]do kraja života 0:34:52.659,0:34:54.849 i bilo je to pod njenim utjecajem 0:34:56.659,0:34:59.859 da je John Stuart Mill pokušao[br]humanizirati utilitarizam. 0:35:01.720,0:35:05.279 Ono što je Mill pokušao je ustanoviti 0:35:05.279,0:35:07.710 da li utilitarističko računanje[br]može biti prošireno i modificirano 0:35:11.200,0:35:13.759 kako bi zadovoljilo humanitarne dvojbe[br]poput: 0:35:17.429,0:35:20.390 brige za poštovanje ljudskih prava 0:35:20.390,0:35:24.598 i također razlike između viših i nižih[br]zadovoljstava. 0:35:26.439,0:35:30.368 1859. Mill je napisao čuvenu knjigu[br]'O slobodi', 0:35:30.369,0:35:35.399 čija je glavna tema važnost obrane[br]prava pojedinca i prava manjina, 0:35:36.380,0:35:38.329 a 1861. pred kraj života 0:35:40.339,0:35:43.130 napisao jee knjigu koju čitamo[br]u okviru ovog kolegija 0:35:43.130,0:35:45.099 'Utilitarizam'. 0:35:45.099,0:35:46.599 U njoj pojašnjava da je korisnost[br]jedino mjerilo moralnosti, po njemu. 0:35:50.769,0:35:52.549 Dakle, on ne dovodi u pitanje[br]Benthamovu premisu, 0:35:53.949,0:35:55.279 on je potvrđuje. 0:35:55.279,0:35:58.829 On vrlo izričito kaže, 'Jedini dokaz da je[br]moguće prozvesti da je sve poželjno, 0:35:58.829,0:36:04.659 je taj da ljudi to zaista žele.' 0:36:05.929,0:36:11.679 Dakle, on ostaje kod ideje da su de facto[br]empirijske želje jedini temelj za moralnu prosudbu. 0:36:15.619,0:36:17.549 Ali onda - strana 8 također u poglavlju 2 - 0:36:18.979,0:36:24.879 on tvrdi da je utilitaristi moguće[br]razlikovati viša od nižih zadovoljstava. 0:36:26.320,0:36:28.970 Vi koji ste već čitali Milla, 0:36:32.079,0:36:33.329 kako je po njemu moguće[br]utvrditi tu razliku? 0:36:36.559,0:36:40.079 Kako utilitarista može kvalitativno[br]razlikovati viša zadovoljstva od nižih, 0:36:42.819,0:36:43.540 sramotnih, nevrijednih? 0:36:48.859,0:36:50.519 Ako ste probali oba, prirodno ćete[br]dati prednost onom višem, uvijek. 0:36:55.309,0:36:59.819 Sjajno, to je točno.[br]Kako se zovete? 0:36:59.819,0:37:01.759 John. 0:37:01.759,0:37:05.019 Pa, kako ističe John, Mills kaže, 0:37:05.019,0:37:07.868 'Evo testa, budući da ne možemo [br]iskoračiti izvan stvarnih želja i preferenci, 0:37:10.490,0:37:11.649 to bi narušilo utilitarističke pemise, 0:37:13.670,0:37:16.819 jedini test 0:37:16.819,0:37:17.600 da li je zadovoljstvo[br]više ili niže razine, 0:37:19.769,0:37:26.468 je da li bi mu netko tko je doživio oba,[br]dao prednost. 0:37:28.109,0:37:29.369 A ovdje, u poglavlju 2, vidimo odlomak[br]u kojem Mill govori ono što je John opisao. 0:37:37.199,0:37:42.680 'Od dva zadovoljstva, ako postoji jedno[br]kojem bi svi, ili skoro svi, koji su doživjeli oba, 0:37:42.680,0:37:46.219 dali odlučujuću prednost, 0:37:46.219,0:37:51.859 bez obzira na bilo kakav osjećaj[br]moralne obaveze da ga preferiraju, 0:37:51.859,0:37:53.390 drugim riječima bez ikakvog vanjskog,[br]nezavisnog mjerila, 0:37:53.390,0:37:57.529 onda je to poželjnije zadovoljstvo.' 0:37:57.529,0:37:59.829 Što ljudi misle o tom argumentu? 0:38:01.549,0:38:03.489 Da li je dobar? 0:38:03.489,0:38:06.380 Koliko vas misli da je uspješan 0:38:06.380,0:38:11.489 za diskusiju o razlikovanju između viših[br]i nižih zadovoljstava u terminima utilitarizma? 0:38:11.489,0:38:12.390 Koliko vas misli da nije dobar? 0:38:17.789,0:38:20.829 Želim čuti vaše razloge, 0:38:20.829,0:38:22.249 ali prije no što izložimo razloge,[br]napravit ćemo jedan pokus 0:38:26.329,0:38:28.719 u vezi Millsove tvrdnje. 0:38:31.569,0:38:35.199 Da bismo mogli napraviti taj pokus 0:38:35.199,0:38:39.859 pogledat ćemo tri kratka isječka[br]popularne zabave. 0:38:44.889,0:38:48.170 Prvi je Hamletov monolog 0:38:48.170,0:38:52.939 iza kojeg slijede dva druga doživljaja. 0:38:55.420,0:38:58.259 Da vidimo što vi mislite. 0:38:58.259,0:39:02.249 'Kakvo je remek-djelo čovjek! 0:39:02.249,0:39:05.509 Kako plemenit umom! 0:39:05.509,0:39:07.579 Kako neograničen u sposobnostima! 0:39:07.579,0:39:11.439 U liku i pokretu kako je izražajan i divan! 0:39:11.439,0:39:14.949 U djelima kako sličan anđelu,[br]u mislima kako sličan Bogu! 0:39:14.949,0:39:16.430 Ljepota svijeta, uzor svim životinjama! 0:39:18.349,0:39:21.259 Pa ipak, što je za mene[br]ta kvintesencija prašine? 0:39:24.689,0:39:31.689 Čovjek mene ne očarava.' 0:39:43.309,0:39:47.749 'Zamislite svijet u kojem vaši najveći[br]strahovi postaju stvarnost. 0:39:47.749,0:39:52.609 Svaki show, šest natjecatelja iz cijele zemlje[br]bore se međusobno u tri ekstremne egzibicije. 0:39:52.609,0:39:59.609 Te egzibicije smišljene su kao izazovi[br]za natjecatelje, fizički i mentalno. 0:40:00.419,0:40:02.288 Šest natjecatelja, tri egzibicije, jedan pobjednik. 0:40:02.289,0:40:09.289 Fear Factor. 0:40:16.449,0:40:22.919 Simpsoni. 0:40:22.919,0:40:25.240 Flanders, otkad ti voliš kul stvari? 0:40:25.240,0:40:28.729 Pa, nije mi do brzine, ali obožavam tu zaštitnu[br]opremu, kacige, zaštitne šipke, zastavice. 0:40:28.729,0:40:35.499 Ja volim friški zrak i gledati jadnike[br]na terenu. 0:40:35.499,0:40:41.319 Dang Cletus, zašto si morao parkirati[br]pokraj mojih roditelja? 0:40:41.320,0:40:43.029 Ne draga, to su i moji roditelji. 0:40:55.759,0:41:00.629 Ne moram ni pitati[br]koji vam se najviše sviđao. 0:41:00.629,0:41:05.109 Simpsoni? Kome su se najviše sviđali Simpsoni? 0:41:05.109,0:41:10.140 Kome Shakespeare? 0:41:10.140,0:41:12.710 A Fear Factor? 0:41:12.710,0:41:15.959 Koliko vas više voli Fear Factor? 0:41:15.959,0:41:22.368 Stvarno? 0:41:22.369,0:41:24.079 Nadmoćnoj većini sviđaju se Simpsoni 0:41:25.769,0:41:29.229 više od Shakespearea. 0:41:29.229,0:41:31.598 U redu, uzmimo sad drugi dio glasova. 0:41:33.749,0:41:35.799 Koji doživljaj odnosno užitak je najviši? 0:41:39.409,0:41:41.729 Koliko ih kaže Shakespeare? 0:41:47.789,0:41:49.960 Koliko ih kaže Fear Factor? 0:41:54.189,0:41:59.069 Ne, vi se šalite. Ozbiljno? 0:42:01.039,0:42:02.709 Samo naprijed, recite. 0:42:02.709,0:42:03.439 Ja mislim da je to najzabavnije. 0:42:04.709,0:42:09.428 Znam, ali koji doživljaj je za vas najvredniji,[br]najplemenitiji. 0:42:09.429,0:42:10.920 Znam da vam je to najzabavnije. 0:42:10.920,0:42:15.920 Ako je nešto dobro samo zato što je ugodno,[br]zašto je važno da imate neku apstraktnu ideju 0:42:15.920,0:42:17.209 je li to dobro po mjerilima nekog drugog? 0:42:21.729,0:42:25.038 Znači vi stajete na stranu Benthama: 0:42:25.039,0:42:26.429 tko je taj koji će prosuditi 0:42:26.429,0:42:29.279 i zašto bi morali prosuđivati? 0:42:29.279,0:42:33.880 Umjesto da samo registriramo i pribrojimo[br]de facto preferencije. U redu, pošteno. 0:42:33.880,0:42:35.349 Kako se vi zovete? 0:42:35.349,0:42:37.329 Nate? U redu, pošteno. 0:42:38.219,0:42:40.919 Koliko vas misli da su Simpsoni ustvari,[br]osim što vam se sviđaju, 0:42:40.919,0:42:46.259 da su ustvari doživljaj[br]više razine od Shakespearea? 0:42:47.420,0:42:49.309 Da vidiomo ponovo[br]tko je glasao za Shakespearea. 0:42:49.309,0:42:52.869 Koliko vas misli da je Shakespeare viši? 0:42:55.540,0:42:58.999 Idealno bi bilo da čujem nekoga ...[br]ima li koga tko misli da je Shakespeare najviši, 0:43:02.109,0:43:02.989 ali radije gleda Simpsone? 0:43:08.739,0:43:14.160 Samo sjediti i gledati Simpsone je zabavno[br]jer se šale i nasmijavaju nas, 0:43:14.160,0:43:17.839 ali netko nam mora reći [br]da je Shakespeare veliki pisac, 0:43:17.839,0:43:20.630 moramo naučiti kako ga čitati[br]i kako ga razumijeti, 0:43:20.630,0:43:23.150 moramo naučiti kako gledati Rembrandta,[br]kako analizirati sliku. 0:43:23.150,0:43:25.859 Kako se vi zovete? 0:43:25.859,0:43:27.840 Aneesha. 0:43:27.840,0:43:31.259 Aneesha, kad kažete da vam je netko[br]rekao da je Shakespeare bolji, 0:43:31.259,0:43:37.299 da li to prihvaćate slijepom vjerom? 0:43:37.299,0:43:41.529 Glasali ste da je Shakespeare bolji[br]samo zato jer vam to govori kultura ili učitelji? 0:43:41.529,0:43:44.049 Ili se zaista sami slažete s tim? 0:43:44.049,0:43:48.319 U odnosu na Shakesperea, ne,[br]ali ranije ste dali primjer Rembrandta 0:43:49.740,0:43:54.479 i mislim da bih više uživala[br]čitajući strip 0:43:54.479,0:43:58.348 nego što bih uživala analizirajući Rembrandta[br]zato jer mi je netko rekao da je veliki slikar. 0:43:58.349,0:44:01.699 Dakle vi sugerirate da bi nešto od toga[br]bilo kulturna konvencija i pritisak. 0:44:01.699,0:44:05.319 Rečeno nam je koje knjige,[br]koja umjetnička djela su velika. 0:44:05.319,0:44:12.319 Tko još? 0:44:15.309,0:44:19.640 Iako sam više uživao gledajući Simpsone,[br]ovaj tren na predavanju, 0:44:19.640,0:44:23.049 kad bih morao ostatak svog života provesti[br]s jednim od tri prikazana videa, 0:44:26.869,0:44:29.119 ne bih želio provesti taj ostatak svog života[br]gledajući zadnja dva videa. 0:44:33.800,0:44:36.650 Mislim da bih više užitka našao[br]u tome da budem u stanju 0:44:38.309,0:44:39.269 razvijati se u vlastitom umu 0:44:39.269,0:44:40.488 baveći se dubljim užicima,[br]dubljim mislima. 0:44:44.869,0:44:48.630 Recite mi vaše ime. 0:44:48.630,0:44:49.630 Joe. 0:44:49.630,0:44:52.559 Joe, dakle kad morali ostatak života provesti 0:44:52.559,0:44:55.409 na farmi u Kansasu samo sa Shakespearom[br]ili zbirkom epizoda Simpsona, 0:45:02.079,0:45:04.119 vi bi radije odabrali Shakespearea? 0:45:06.599,0:45:09.849 Što iz toga zaključujete [br]o testu John Stuart Millsa? 0:45:12.149,0:45:15.078 Da test višeg zadovoljstva pokazuje 0:45:15.079,0:45:16.359 da li ljudi koji su doživjeli oba[br]preferiraju dotično. 0:45:21.509,0:45:23.880 Mogu li ukratko citirati drugi primjer? 0:45:23.880,0:45:25.130 Na neurobiologiji prošle godine[br]pričali su nam o pokusu sa štakorom 0:45:28.769,0:45:31.209 gdje je štakor mogao stimulirati[br]određeni centar u svom mozgu 0:45:31.209,0:45:35.879 tako da doživljava intenzivno zadooljstvo. 0:45:35.879,0:45:38.368 Štakor nije jeo ni pio sve dok nije umro. 0:45:38.369,0:45:42.179 Štakor je očito doživljavao [br]intenzivno zadovoljstvo. 0:45:42.179,0:45:46.269 Pa sada, da me ovaj čas upitate[br]da li bih radije doživio intenzivno zadovoljstvo 0:45:47.140,0:45:52.690 ili cijeli život ispunjen višim zadovoljstvom, 0:45:52.690,0:45:55.799 - intenzivno zadovoljstvo pritom smatram[br]nižim zadovoljstvom - 0:45:55.799,0:46:01.969 rado bih ovaj čas uživao u[br]intenzivnom zadovoljstvu - da, sigurno bi - 0:46:01.969,0:46:03.159 ali tokom cijelog života, mislim da bi se [br]većina ovdje složila 0:46:06.899,0:46:11.630 da bi radije bili ljudi s višim zadovoljstvom,[br]nego taj štakor s intenzivnim zadovoljstvom 0:46:11.630,0:46:13.269 u vrlo kratkom vremenskom periodu. 0:46:15.870,0:46:18.959 A odgovarajući na vaše pitanje,[br]to dokazuje da ... 0:46:18.959,0:46:21.348 neću reći dokazuje, 0:46:21.349,0:46:24.999 mislim da je zaključak da Millsova teorija[br]da ako se pita ljude što bi više voljeli, 0:46:31.439,0:46:33.118 većina će odgovoriti da bi radije[br]doživljavali više zadovoljstvo. 0:46:33.119,0:46:34.689 Dakle, vi mislite da to podržava ...[br]mislite da je Mills ovdje u pravu? 0:46:39.499,0:46:40.738 Da, mislim. 0:46:40.739,0:46:42.629 Ima li koga tko se ne slaže s Joeom, 0:46:42.629,0:46:46.839 tko misli da naš eksperiment opovrgava[br]Millsov test? 0:46:51.099,0:46:53.239 Pokazuje da to nije adekvatan način, 0:46:53.239,0:46:57.689 da ne možete raspoznati viša zadovoljstva[br]u okvirima utilitarizma. 0:47:05.879,0:47:09.509 Ako je uistinu dobro što god ljudi[br]preferiraju, 0:47:09.509,0:47:11.519 onda je to uistinu relativno i ne postoji[br]objektivna definicija. 0:47:11.519,0:47:14.888 U nekim društvima ljudi će preferirati[br]Simpsone. 0:47:15.849,0:47:21.380 Svatko može uživati u Simpsonima, 0:47:21.380,0:47:25.660 ali mislim da je nužna edukacija[br]da se uživa u Shakespeareu. 0:47:25.660,0:47:27.319 Vi kažete da je potrebna edukacija[br]za uživanje u višim stvarima. 0:47:27.319,0:47:29.719 Millsov stav je da viša zadovoljstva[br]zaista zahtijevaju kultivaciju i edukaciju. 0:47:35.090,0:47:37.799 On to ne osporava. 0:47:38.650,0:47:41.660 Ali jednom kad su kultivirani i educirani[br]ljudi će uvidjeti, 0:47:41.660,0:47:44.029 ne samo da će uvidjeti razliku[br]između viših i nižih zadovoljstava, 0:47:49.009,0:47:51.539 nego će zapravo preferirati [br]viša pred nižima. 0:47:55.849,0:47:59.519 Naći ćete taj čuveni citat John Stuart Millsa: 0:47:59.519,0:48:00.808 'Bolje je biti nezadovoljno ljudsko biće,[br]nego zadovoljna svinja.' 0:48:03.869,0:48:06.109 Bolje nezadovoljni Sokrat,[br]nego zadovoljna budala. 0:48:10.539,0:48:12.229 A ako budala i svinja različito misle, to je[br]zato jer znaju samo svoju stranu pitanja.' 0:48:20.700,0:48:22.339 Dakle, tu imate pokušaj razlikovanja[br]viših od nižih zadovoljstava, 0:48:28.719,0:48:33.169 odnosno između posjeta muzeju i[br]gledanja televizije uz bocu piva kod kuće. 0:48:35.489,0:48:37.950 Mill dopušta da ponekad možda[br]podliježemo iskušenju 0:48:37.950,0:48:40.839 da radimo ovo zadnje, budemo[br]TV ovisnici, 0:48:46.309,0:48:47.779 ali čak i kad to radimo[br]iz nemara i lijenosti,[br]i 0:48:50.680,0:48:52.200 mi znamo da zadovoljstvo koje osjećamo[br]zureći u Rembrandta u muzeju 0:48:52.200,0:48:54.029 ustvari je više 0:49:00.219,0:49:03.190 zato jer smo doživjeli oba. 0:49:03.190,0:49:05.699 A to i jeste više zadovoljstvo,[br]zurenje u Rembrandte, 0:49:06.940,0:49:11.499 zato jer zaokuplja naše više[br]ljudske sposobnosti. 0:49:11.499,0:49:13.848 Što je s Millsovim pokušajem da odgovori[br]na prigovor o pravima pojedinca? 0:49:18.890,0:49:21.859 Na neki način on koristi[br]istu vrstu argumenta. 0:49:21.859,0:49:25.319 A to je predstavljeno u poglavlju 5. 0:49:27.859,0:49:33.369 On kaže: 'Iako osporavam pretenzije[br]bilo koje teorije koja postavlja 0:49:33.369,0:49:34.889 imaginarni standard pravednosti[br]neutemeljen na korisnosti. 0:49:39.719,0:49:41.389 Ali ipak, smatra da je pravednost[br]utemeljena na korisnosti, 0:49:41.389,0:49:43.429 glavni dio i neusporedivo najsvetiji [br]i obvezujući dio svake moralnosti ...' 0:49:54.599,0:49:57.249 Dakle, pravda jeste viša,[br]individualna prava imaju prednost, 0:50:00.049,0:50:01.899 ali ne iz razloga koji se razilaze[br]sa utilitarističkim postavkama. 0:50:05.310,0:50:06.769 'Pravednost je ime za određene[br]moralne zahtjeve 0:50:06.769,0:50:09.069 koji, na kolektivnoj razini, stoje [br]visoko na skali društvene korisnosti 0:50:09.069,0:50:11.220 i stoga predstavljaju mjerodavniju obavezu[br]od bilo koje druge.' 0:50:23.200,0:50:28.919 Dakle, pravednost je sveta, prvenstvena,[br]povlaštena. 0:50:28.920,0:50:30.890 To nije nešto što se može lako razmijeniti[br]za manje vrijedne stvari, 0:50:30.890,0:50:32.239 ali razlog je, u konačnici, tvrdi Mills,[br]utilitaristički razlog 0:50:37.929,0:50:39.239 Kad pogledate dugoročne interese[br]ljudske vrste, 0:50:41.199,0:50:43.539 svih nas kao progresivnih bića, 0:50:46.329,0:50:47.699 ako postupamo pravedno[br]i poštujemo prava, 0:50:51.279,0:50:52.609 društvu će u cjelini biti bolje,[br]dugoročno gledano. 0:50:55.949,0:50:57.999 Je li to uvjerljivo? 0:50:57.999,0:50:59.158 Ili, da li Mills ustvari, ne priznajući to,[br]izlazi izvan utilitarističkih okvira 0:51:06.219,0:51:07.789 zalažući se za kvalitativno[br]viša zadovoljstva 0:51:12.789,0:51:14.479 i za sveta, odnosno posebno važna,[br]prava pojedinca? 0:51:18.479,0:51:21.718 Mi nismo u potpunosti odgovorili[br]na to pitanje 0:51:21.719,0:51:23.809 jer da bi se odgovorilo na to pitanje,[br]u slučaju prava i pravednosti, 0:51:26.259,0:51:28.869 nužno bi bilo istražiti druge načine,[br]neutilitarističke načine, 0:51:33.369,0:51:35.030 tumačenja osnove prava 0:51:36.479,0:51:38.269 i onda se zapitati da li [br]su valjana. 0:51:40.409,0:51:42.949 Što se tiče Jeremy Benthama, 0:51:42.949,0:51:44.969 koji je lansirao utilitarizam[br]kao doktrinu i moralnu i pravnu filozofiju, 0:51:49.979,0:51:53.819 Bentham je umro 1832. [br]u dobi od 85 godina, 0:51:53.819,0:51:57.509 ali ako odete u London[br]možete ga i danas posjetiti, doslovno. 0:51:58.729,0:52:01.439 U svojoj oporuci pobrinuo se[br]da njegovo tijelo bude konzervirano, 0:52:03.390,0:52:05.489 balzamirano i izloženo [br]na sveučilištu University of London 0:52:07.739,0:52:11.069 gdje još uvijek vlada u staklenoj vitrini[br]s voštanom glavom u svom stvarnom odijelu. 0:52:14.989,0:52:17.049 Vidite, prije no što je umro Bentham si je[br]postavio pitanje sukladno svojoj filozofiji, 0:52:22.339,0:52:23.499 od kakve koristi bi mrtav čovjek[br]mogao biti živima? 0:52:26.839,0:52:30.499 Jedna korist, rekao je, bila bi staviti[br]svoj leš na raspolaganje 0:52:30.499,0:52:33.519 za studiranje anatomije. 0:52:33.519,0:52:37.129 U slučaju velikih filozofa, međutim, 0:52:37.129,0:52:38.159 jo je bolje sačuvati svoju fizičku prisutnost[br]kao inspiraciju budućim generacijama mislilaca. 0:52:44.919,0:52:47.618 Želite vidjeti kako izgleda punjeni Bentham? 0:52:47.619,0:52:50.410 Ovako izgleda. 0:52:53.549,0:52:55.459 Ako pogledate pažljivo,[br]primjetit ćete 0:52:57.459,0:52:58.529 da balzamiranje njegove stvarne glave[br]nije baš uspjelo pa su je zamijenili voštanom, 0:53:06.910,0:53:10.009 a na dnu radi vjerodostojnosti[br]možete vidjeti njegovu pravu glavu na tanjuru. 0:53:16.529,0:53:17.809 Vidite? 0:53:17.809,0:53:22.599 Ovdje. 0:53:22.599,0:53:25.709 Pa, koja je pouka priče? 0:53:25.709,0:53:29.499 Pouka priče ... 0:53:29.499,0:53:33.698 usput, vade ga za vrijeme zasjedanja vijeća[br]na University College London, 0:53:33.699,0:53:40.659 a u zapisniku ga bilježe kao prisutnog[br]bez prava glasa. 0:53:40.659,0:53:42.539 Ovdje je filozof u životu i smrti[br]koji se držao principa svoje filozofije. 0:53:48.400,0:53:55.400 Idući puta nastavit ćemo s pravima.