WEBVTT 00:00:20.040 --> 00:00:23.040 Pravednost Michael Sandel 00:00:23.920 --> 00:00:26.580 Ima li život cijenu? 00:00:29.390 --> 00:00:37.510 Prošli puta raspravljali smo o slučaju Kraljica protiv Dudleya i Stephensa, 00:00:39.400 --> 00:00:43.790 slučaj u čamcu za spasavanje, slučaj kanibalizma na moru, 00:00:45.970 --> 00:00:49.620 i imajući na umu argumente slučaja čamca za spasavanje, 00:00:49.839 --> 00:00:53.220 argumente za i protiv onoga što su učinili Dudley i Stephens, 00:00:54.150 --> 00:01:00.200 vratimo se na utilitarističku filozofiju Jeremya Benthama. 00:01:02.060 --> 00:01:04.570 Bentham je rođen u Engleskoj 1748., 00:01:04.620 --> 00:01:08.978 sa 12 godina pohađao je Oxford, sa 15 se upisao na pravni fakultet. 00:01:09.740 --> 00:01:14.100 Sa 19 primljen je u Odvjetničku komoru, ali nikada se nije bavio pravom, 00:01:14.740 --> 00:01:20.256 umjesto toga posvetio je život filozofiji prava i filozofiji morala. 00:01:22.170 --> 00:01:26.715 Prošli puta počeli smo razmatrati Benthamovu verziju utilitarizma. 00:01:27.690 --> 00:01:30.990 Glavna ideja, sažeto sročena, je ova: 00:01:32.780 --> 00:01:37.700 najviši princip morala, bilo osobnog ili političkog morala, 00:01:40.529 --> 00:01:43.780 je maksimiziranje općeg dobra 00:01:44.000 --> 00:01:46.170 ili kolektivne sreće, 00:01:46.560 --> 00:01:49.244 ili ukupne ravnoteže zadovoljstva nad boli 00:01:50.070 --> 00:01:53.338 u izrazu maksimizirane korisnosti. 00:01:56.150 --> 00:01:59.747 Bentham dolazi do tog principa rasuđujući na sljedeći način: 00:02:00.570 --> 00:02:02.650 svima nama upravljaju bol i zadovoljstvo, 00:02:03.150 --> 00:02:07.889 oni su naši suvereni gospodari, pa ih svaki moralni sistem mora uzeti u obzir. 00:02:08.828 --> 00:02:10.819 Kako ih najbolje uzeti u obzir? 00:02:10.999 --> 00:02:12.392 Maksimiziranjem 00:02:13.739 --> 00:02:17.999 i to vodi principu 'najvećeg dobra za najveći broj'. 00:02:19.400 --> 00:02:21.394 Što bismo točno trebali maksimizirati? 00:02:22.749 --> 00:02:24.978 Bentham nam kaže - sreću 00:02:25.510 --> 00:02:28.256 ili, preciznije, korisnost. 00:02:28.679 --> 00:02:33.439 Maksimiziranje korisnosti nije najvažnije samo za pojedince, već i za zajednice 00:02:33.929 --> 00:02:35.460 i zakonodavce. 00:02:36.569 --> 00:02:39.239 Na koncu, što je zajednica? - pita Bentham. 00:02:41.359 --> 00:02:44.377 To je suma pojedinaca koji je sačinjavaju. 00:02:44.779 --> 00:02:47.520 I zbog toga, u odlučivanju o najboljim političkim mjerama, 00:02:47.650 --> 00:02:51.360 u odlučivanju što bi trebalo biti zakon, u odlučivanju što je pravedno, 00:02:52.380 --> 00:02:56.609 građani i zakonodavci bi se trebali zapitati: 00:02:56.609 --> 00:03:00.760 Ako zbrojimo sve prednosti ove politike 00:03:03.870 --> 00:03:06.447 i oduzmemo sve troškove, 00:03:08.829 --> 00:03:11.429 ispravna stvar koju treba učiniti je ona 00:03:11.779 --> 00:03:16.665 koja maksimizira saldo sreće nad patnjom. 00:03:20.869 --> 00:03:22.629 To znači maksimizirati korisnost. 00:03:23.769 --> 00:03:29.498 Danas želim ustanoviti da li se vi slažete s tim ili ne. 00:03:30.700 --> 00:03:36.200 A ta utilitarna logika često dolazi pod nazivom analiza troškova i koristi 00:03:36.650 --> 00:03:42.429 koju koriste kompanije i vlade cijelo vrijeme. 00:03:43.369 --> 00:03:49.578 A ono što ona uključuje je vrednovanje, obično u dolarima, korisnosti, 00:03:50.899 --> 00:03:54.797 kao i troškova i prednosti raznih prijedloga. 00:03:56.309 --> 00:03:58.529 Nedavno je u Republici Češkoj 00:03:58.879 --> 00:04:02.700 predstavljen prijedlog za povećanje trošarine na pušenje. 00:04:03.120 --> 00:04:05.980 Philip Morris, duhanska kompanija, 00:04:07.679 --> 00:04:10.439 ostvaruje veliku dobit u Republici Češkoj. 00:04:10.669 --> 00:04:14.579 Oni su naručili studiju analize troškova i koristi 00:04:15.148 --> 00:04:18.068 za pušenje u Republici Češkoj. 00:04:18.678 --> 00:04:21.787 I ono što je ustanovila ta studija analize troškova i koristi, 00:04:23.550 --> 00:04:29.396 je da vlada ostvaruje dobit zahvaljujući pušenju čeških građana. 00:04:30.779 --> 00:04:32.360 Pa, kako ostvaruju dobit? 00:04:32.660 --> 00:04:38.519 Istina je da postoje negativni učinci na javne financije češke vlade, 00:04:40.000 --> 00:04:45.694 zbog povećanih troškova zdravstva za ljude koji pate od bolesti povezanih s pušenjem, 00:04:47.239 --> 00:04:49.799 s druge strane, postoje pozitivni učinci, 00:04:50.730 --> 00:04:54.600 a to su, pribrojeni na drugoj strani bilance, 00:04:55.379 --> 00:04:59.180 pozitivni učinci su uključivali, najvećim dijelom, razne porezne prihode 00:04:59.260 --> 00:05:03.539 koje vlada ostvaruje prodajom duhanskih proizvoda, 00:05:03.800 --> 00:05:08.305 no također su uključivali uštede u zdravstvu kad ljudi umiru ranije, 00:05:08.910 --> 00:05:12.466 uštede na penzijama - ne morate plaćati penzije tako dugo - 00:05:13.339 --> 00:05:17.149 i također uštede na troškovima domova za starije. 00:05:19.679 --> 00:05:22.679 I kad su bili sumirani svi troškovi i koristi, 00:05:24.640 --> 00:05:27.340 studija Philip Morrisa je ustanovila 00:05:27.870 --> 00:05:32.010 da neto dobit javnih financija Republike Češke iznosi 00:05:32.610 --> 00:05:35.479 147 milijuna dolara, 00:05:36.449 --> 00:05:40.670 a u odnosu na uštede na smještaju i zdravstvenoj skrbi i mirovinama, 00:05:41.407 --> 00:05:50.839 vlada uživa uštedu od preko 1200 dolara za svaku osobu koja prerano umre zbog pušenja. 00:05:51.919 --> 00:05:53.870 Analiza troškova i koristi. 00:05:56.740 --> 00:06:02.289 Oni od vas koji brane utilitarizam mogli bi pomisliti da ovaj test nije fer. 00:06:03.389 --> 00:06:09.130 Philip Morris je bio razapet u štampi i objavio je ispriku za ovu bezdušnu kalkulaciju. 00:06:10.680 --> 00:06:13.089 Mogli biste reći da je ono što ovdje nedostaje 00:06:13.139 --> 00:06:17.252 nešto što utilitaristi mogu lako ugraditi, napose, 00:06:19.339 --> 00:06:24.160 vrijednost za osobu i obitelji onih koji umiru od raka pluća. 00:06:25.599 --> 00:06:27.642 A što je sa vrijednošću života? 00:06:29.190 --> 00:06:35.554 Neke analize troškova i koristi sadržavaju mjeru za vrijednost života. 00:06:36.809 --> 00:06:40.933 Jedan od najpoznatijih je slučaj Ford Pinto automobila. 00:06:41.330 --> 00:06:44.138 Je li itko čitao o tome? To je bilo 1970.-tih. 00:06:44.298 --> 00:06:47.499 Sjećate se da je Ford Pinto bio marka automobila? 00:06:47.750 --> 00:06:48.639 Itko? 00:06:51.029 --> 00:06:54.899 To je bio mali auto, kompakt klase, vrlo popularan, 00:06:55.949 --> 00:07:00.849 ali imao je jedan problem, a to je da je rezervoar za gorivo bio straga 00:07:01.599 --> 00:07:04.718 i kod udarca u stražnji dio rezervoar bi eksplodirao 00:07:07.660 --> 00:07:11.570 i neki ljudi su poginuli, a neki su bili ozbiljno povrijeđeni. 00:07:13.749 --> 00:07:18.348 Žrtve tih nesreća tužile su Ford, 00:07:18.768 --> 00:07:21.438 a na suđenju se ispostavilo 00:07:21.669 --> 00:07:26.710 da je Ford odavno znao za riskantnost rezervoara za gorivo 00:07:27.499 --> 00:07:32.169 i da je napravio analizu troškova i koristi kako bi ustanovio da li bi se isplatilo 00:07:33.599 --> 00:07:35.833 ugraditi posebni štit 00:07:36.090 --> 00:07:39.574 koji bi zaštitio rezervoar i spriječio da eksplodira. 00:07:40.490 --> 00:07:42.519 Napravili su analizu troškova i koristi; 00:07:42.979 --> 00:07:48.766 cijena dijela koji bi povećao sigurnost Pinta, 00:07:50.299 --> 00:07:53.568 izračunali su da iznosi 11 dolara po komadu. 00:07:55.939 --> 00:08:01.347 A ovo je analiza troškova i koristi koja se pojavila na suđenju, 00:08:02.879 --> 00:08:08.812 11 dolara po komadu za 12,5 milijuna automobila i kamiona 00:08:09.670 --> 00:08:15.938 iznosila je ukupno 137 milijuna dolara za povećanje sigurnosti. 00:08:17.370 --> 00:08:22.178 A onda su izračunali prednosti ulaganja tog novca u sigurniji auto. 00:08:23.300 --> 00:08:28.197 Prebrojali su 180 smrti i pridijelili dolarsku vrijednost: 00:08:29.130 --> 00:08:31.079 200 tisuća dolara po jednoj smrti. 00:08:32.170 --> 00:08:36.820 180 povreda - 67 tisuća dolara; 00:08:37.490 --> 00:08:40.999 i onda troškovi popravka i zamjene za 2000 vozila, 00:08:40.999 --> 00:08:44.174 koji bi bili uništeni bez tog zaštitnog dijela, 00:08:44.719 --> 00:08:46.875 700 dolara po vozilu. 00:08:48.060 --> 00:08:53.690 Tako se pokazalo da bi prednosti iznosile samo 49,5 milijuna 00:08:53.930 --> 00:08:56.920 i stoga nisu ugradili tu zaštitu. 00:08:57.570 --> 00:09:00.519 Nepotrebno je napominjati, da kad se taj memo 00:09:01.700 --> 00:09:06.420 o analizi troškova i koristi kompanije Ford Motor Company pojavio na suđenju, 00:09:09.160 --> 00:09:13.220 prenerazio je porotnike, koji su dosudili goleme odštete. 00:09:15.950 --> 00:09:20.020 Je li to protuprimjer za utilitarističku ideju izračuna? 00:09:20.360 --> 00:09:24.644 Jer Ford je uključio mjeru za vrijednost života. 00:09:27.320 --> 00:09:31.940 Tko bi od vas želio braniti analizu troškova i koristi 00:09:33.190 --> 00:09:35.120 u ovom očitom protuprimjeru? 00:09:35.320 --> 00:09:36.740 Tko ima obranu? 00:09:38.520 --> 00:09:43.350 Ili mislite da to u potpunosti ruši cijeli utiilitaristički izračun? 00:09:47.410 --> 00:09:50.970 Ja mislim da su opet napravili istu grešku kao u prethodnom slučaju 00:09:51.220 --> 00:09:56.116 pridijelivši dolarsku vrijednost ljudskom životu ne uzimajući u obzir stvari poput 00:09:56.270 --> 00:10:02.990 patnje i emocionalni gubitak obitelji, koje su izgubile prihode, ali i svoje voljene. 00:10:03.860 --> 00:10:06.700 a to vrijedi više od 200 tisuća dolara. 00:10:06.820 --> 00:10:08.540 Čekajte, kako se vi zovete? 00:10:09.171 --> 00:10:10.177 Julie Roto. 00:10:10.480 --> 00:10:15.060 Pa, Julie, 200 tisuća je preniska cifra 00:10:15.230 --> 00:10:20.100 jer ne uključuje gubitak voljenih i gubitak svih tih godina života. 00:10:21.660 --> 00:10:25.650 Što vi mislite, koji bi broj bio točniji? 00:10:26.970 --> 00:10:28.660 Ne vjerujem da mogu dati broj, 00:10:28.660 --> 00:10:32.669 mislim da se takva vrsta analize ne bi smjela koristiti u pitanjima ljudskog života. 00:10:32.764 --> 00:10:34.943 Mislim da se to ne može izraziti novčano. 00:10:35.100 --> 00:10:38.170 Dakle, oni ne samo da su stavili premalu brojku, 00:10:39.270 --> 00:10:42.672 kaže Julie, nego su pogriješili stavljajući bilo koji broj. 00:10:44.510 --> 00:10:46.230 U redu, da čujemo nekoga tko ... 00:10:49.540 --> 00:10:51.860 Morate uzeti u obzir inflaciju? 00:10:58.260 --> 00:10:59.690 U redu, pošteno. 00:11:00.050 --> 00:11:02.250 Pa koji bi to onda broj sada bio? 00:11:02.660 --> 00:11:04.875 To je bilo prije 35 godina. 00:11:07.370 --> 00:11:08.970 Dva milijuna dolara? 00:11:10.090 --> 00:11:11.540 Vi bi stavili dva milijuna? 00:11:12.030 --> 00:11:13.269 A kako se vi zovete? 00:11:13.269 --> 00:11:14.099 Voicheck. 00:11:14.309 --> 00:11:16.758 Voicheck kaže, moramo uzeti u obzir inflaciju 00:11:17.330 --> 00:11:19.049 Trebali bi biti velikodušniji. 00:11:19.360 --> 00:11:23.370 Bi li tada smatrali da je ovo ispravan način razmišljanja o tom pitanju? 00:11:25.170 --> 00:11:31.350 Pretpostavljam, nažalost tu negdje treba staviti broj, 00:11:32.161 --> 00:11:34.440 nisam siguran koji bi to broj bio, 00:11:34.480 --> 00:11:40.430 ali se slažem da bi se mogao staviti broj na ljudski život. 00:11:41.060 --> 00:11:43.109 U redu. Dakle Voicheck kaže, 00:11:44.260 --> 00:11:46.470 i tu se ne slaže s Julie, ... 00:11:46.649 --> 00:11:51.480 Julie kaže, ne možemo staviti broj na ljudski život u svrhu analize troškova i koristi. 00:11:51.690 --> 00:11:56.030 Voicheck kaže - moramo jer moramo donositi odluke, nekako. 00:11:59.520 --> 00:12:01.902 Što drugi misle o tome? 00:12:01.980 --> 00:12:05.340 Je li itko ovdje spreman braniti analizu troškova i koristi? 00:12:06.200 --> 00:12:08.060 Kao točnu i poželjnu? 00:12:09.810 --> 00:12:14.460 Ja mislim kad Ford i druge auto kompanije ne bi koristile analizu troškova i koristi 00:12:15.260 --> 00:12:18.209 na koncu bi propale jer ne bi mogle biti profitabilne 00:12:18.489 --> 00:12:21.749 i milijuni ljudi ne bi mogli koristiti njihove aute za odlazak na posao 00:12:21.749 --> 00:12:24.195 kako bi prehranili svoju djecu. 00:12:24.385 --> 00:12:27.725 Zato mislim da ako se ne koristi analiza troškova i koristi 00:12:28.340 --> 00:12:32.478 žrtvuje se opće dobro u tom slučaju. 00:12:32.810 --> 00:12:34.500 Dobro, da vas pitam kako se zovete? 00:12:34.530 --> 00:12:35.279 Raul. 00:12:37.589 --> 00:12:42.399 Raul, nedavno je provedena studija o upotrebi mobitela u autu za vrijeme vožnje 00:12:42.760 --> 00:12:45.340 i vodila se diskusija o tome treba li to zabraniti 00:12:48.660 --> 00:12:53.611 Procjena je da oko 2000 ljudi umire 00:12:54.810 --> 00:13:00.240 u nesrećama svake godine zbog korištenja mobitela. 00:13:00.900 --> 00:13:06.640 a ipak analiza troškova i koristi koju je napravio Centar za analizu rizika na Harvardu 00:13:07.860 --> 00:13:11.980 ustanovila je da ako pogledate prednosti korištenja mobitela 00:13:13.560 --> 00:13:18.439 i procijenite vrijednost života, dođe skoro na isto 00:13:19.050 --> 00:13:23.960 zbog goleme ekonomske koristi omogućavanja ljudima da iskoriste vrijeme, 00:13:24.040 --> 00:13:27.330 da ne gube vrijeme, da mogu ugovarati poslove i razgovarati s prijateljima i tako dalje 00:13:27.370 --> 00:13:28.720 za vrijeme dok voze. 00:13:29.900 --> 00:13:36.140 Ne sugerira li to da je pogrešno ljudski život vrednovati novčanim iznosima? 00:13:37.590 --> 00:13:40.564 Pa, ja mislim da ako velika većina ljudi 00:13:41.320 --> 00:13:45.369 pokušava izvući maksimalnu korist iz usluge kao što je upotreba mobitela 00:13:45.880 --> 00:13:47.739 i pogodnosti koju pružaju mobiteli, 00:13:47.989 --> 00:13:52.710 tada je žrtva nužna da bi ljudi bili zadovoljni. 00:13:53.230 --> 00:13:55.649 Vi ste otvoreno utilitarista?! 00:13:56.530 --> 00:13:57.270 Da. 00:14:00.020 --> 00:14:01.318 Zadnje pitanje Raul, 00:14:03.600 --> 00:14:05.619 a postavio sam ga i Voichecku. 00:14:05.679 --> 00:14:11.670 Koja bi morala biti cijena ljudskog života u dolarima da bi se zabranilo korištenje mobitela? 00:14:12.870 --> 00:14:17.709 Ne želim proizvoljno računati brojke ovoga časa... 00:14:21.350 --> 00:14:23.359 Želite li to uzeti u razmatranje? 00:14:23.610 --> 00:14:24.790 Da, uzet ću to ... 00:14:25.090 --> 00:14:28.069 Ali ugrubo, koliko bi to bilo? Imate 2300 smrti, 00:14:28.690 --> 00:14:31.970 morate odrediti dolarsku vrijednost da biste znali želite li spriječiti te smrti 00:14:32.010 --> 00:14:34.539 zabranom upotrebe mobitela u autima. 00:14:36.660 --> 00:14:39.940 Pa, imate li neki osjećaj koliko? 00:14:40.350 --> 00:14:41.859 Milijun, dva milijuna? 00:14:42.280 --> 00:14:44.170 Dva milijuna je bila Voitechova cifra. 00:14:44.410 --> 00:14:46.410 Je li to otprilike točno? - Možda milijun. 00:14:46.490 --> 00:14:47.770 Milijun?! - Da. 00:14:51.140 --> 00:14:52.090 Dobro je, hvala. 00:14:54.650 --> 00:14:59.359 To su neke kontraverze koje danas proizlaze iz analize troškova i koristi, 00:14:59.549 --> 00:15:05.130 posebno one koje uključuju pridjeljivanje dolarske vrijednosti svemu što ulazi u zbroj. 00:15:06.770 --> 00:15:09.840 Sada bih se želio okrenuti vašim prigovorima, 00:15:09.960 --> 00:15:14.560 vašim prigovorima, ne nužno na analizu troškova i koristi izričito, 00:15:14.740 --> 00:15:20.249 jer to je samo jedna verzija utilitarističke logike u današnjoj praksi, 00:15:21.720 --> 00:15:24.010 nego na teoriju u cjelini, 00:15:24.200 --> 00:15:28.220 na ideju da je ispravni postupak, 00:15:30.000 --> 00:15:32.630 pravedna osnova za političke mjere i zakon, 00:15:33.710 --> 00:15:36.190 maksimiziranje korisnosti. 00:15:39.750 --> 00:15:43.440 Koliko vas se ne slaže s utilitarističkim pristupom 00:15:44.330 --> 00:15:47.510 zakonu i općem dobru? 00:15:48.330 --> 00:15:49.890 Koliko vas se slaže s njim? 00:15:52.070 --> 00:15:54.970 Dakle više vas je koji se slažu nego onih koji se ne slažu. 00:15:55.200 --> 00:15:56.780 Pa da čujemo kritičare. 00:15:59.560 --> 00:16:03.059 Moj glavni problem s tim je da mi se čini da ne možete reći ... 00:16:03.549 --> 00:16:05.230 samo zato što je netko u manjini, 00:16:06.280 --> 00:16:11.063 da su njegove želje i potrebe manje vrijedne nego onih koji su u većini. 00:16:11.650 --> 00:16:13.939 Pretpostavljam da imam problem s idejom da je 00:16:14.102 --> 00:16:16.607 'najveće dobro za najveći broj' u redu, 00:16:16.697 --> 00:16:21.401 jer što je onda s ljudima kojih je manji broj, 00:16:21.500 --> 00:16:25.634 to onda nije fer prema njima jer nemaju pravo glasa o tome što oni žele. 00:16:25.840 --> 00:16:30.030 To je zanimljiv prigovor, vi brinete o učinku na manjinu? 00:16:30.940 --> 00:16:31.850 Da. 00:16:32.270 --> 00:16:33.380 Usput, kako se zovete? 00:16:33.500 --> 00:16:34.300 Anna. 00:16:35.299 --> 00:16:39.639 Tko ima odgovor na Anninu brigu za učinak na manjinu? 00:16:39.960 --> 00:16:41.360 Što kažete Anni? 00:16:41.450 --> 00:16:45.170 Ona je rekla da manjine vrijede manje. Ja mislim da to nije slučaj 00:16:45.260 --> 00:16:50.443 jer pojedinci u manjini vrijede sasvim jednako kao pojedinci u većini, 00:16:50.599 --> 00:16:54.580 samo je stvar u tome da brojevi nadilaze manjinu. 00:16:56.210 --> 00:16:58.269 U određenom trenutku morate donijeti odluku 00:16:58.969 --> 00:17:04.260 i žao mi je manjine, ali ponekad je to za opće, veće dobro. 00:17:04.450 --> 00:17:07.130 Za veće dobro. Anna, što vi kažete? Vaše ime? 00:17:07.650 --> 00:17:08.510 Youngda. 00:17:08.664 --> 00:17:10.174 Što kažete Youngdai? 00:17:10.429 --> 00:17:13.339 Youngda kaže, morate samo zbrojiti preferencije ljudi, 00:17:13.439 --> 00:17:16.738 a preferencije onih u manjini zaista se mjere. 00:17:17.309 --> 00:17:20.070 Možete li dati neki primjer za ono što vas brine 00:17:20.260 --> 00:17:26.820 kad kažete da ste zabrinuti da utilitarizam krši interes i uvažavanje manjine? 00:17:27.970 --> 00:17:29.730 Možete li dati neki primjer? 00:17:30.050 --> 00:17:33.593 Pa, u odnosu na svaki od slučajeva o kojima smo govorili, poput brodoloma, 00:17:35.179 --> 00:17:41.662 mislim da je dječak koji je pojeden ipak imao jednako pravo na život kao i drugi ljudi, 00:17:43.560 --> 00:17:48.966 a samo zato što je bio 'manjina' u tom slučaju, 00:17:49.100 --> 00:17:52.940 onaj koji je možda imao manje šanse da nastavi živjeti, 00:17:53.460 --> 00:17:57.662 to ne znači da drugi automatski imaju pravo da ga pojedu 00:17:58.450 --> 00:18:02.500 samo zato jer bi to većem broju ljudi pružilo šansu da preživi. 00:18:03.290 --> 00:18:09.570 Dakle, možda postoje određena prava koja imaju manjine, odnosno pojedinac, 00:18:09.980 --> 00:18:15.290 koja ne bi smjela biti razmjenjivana u ime korisnosti? 00:18:16.520 --> 00:18:17.640 Da, Anna? 00:18:18.210 --> 00:18:20.414 Ovo bi bio test za vas. 00:18:21.990 --> 00:18:27.843 U drevnom Rimu bacali su kršćane lavovima u koloseumu iz sporta. 00:18:29.510 --> 00:18:32.713 Ako razmislite o načinu utilitarističkog računanja - 00:18:33.890 --> 00:18:38.154 da, krščanin bačen lavu proživljava ogromni nepodnošljivi bol, 00:18:38.770 --> 00:18:41.720 ali pogledajte kolektivnu ekstazu Rimljana! 00:18:45.150 --> 00:18:46.427 Youngda. 00:18:50.580 --> 00:18:51.889 Pa, u to vrijeme ... 00:18:54.920 --> 00:19:00.820 U moderno vrijeme, uzimajući u obzir radost pruženu ljudima koji gledaju, 00:19:01.680 --> 00:19:10.890 mislim da niti jedan zakonodavac ne bi rekao da je patnja jednog čovjeka puno ... 00:19:12.090 --> 00:19:14.410 u usporedbi sa radošću koju donosi ... 00:19:14.680 --> 00:19:19.992 Ne, ali morate priznati da u slučaju da je dovoljan broj Rimljana bio izbezumljen od sreće 00:19:20.460 --> 00:19:26.211 to bi prevagnulo čak i najužasniju bol nekolicine kršćana bačenih lavovima. 00:19:28.600 --> 00:19:32.651 Dakle, zaista ovdje imamo dva različita prigovora utilitarizmu. 00:19:33.570 --> 00:19:41.830 Jedan se odnosi na primjereno poštovanje ljudskih prava odnosno prava manjina. 00:19:42.500 --> 00:19:52.350 A drugi se odnosi na cijelu ideju objedinjavanja korisnosti ili preferencija ili vrijednosti. 00:19:53.070 --> 00:19:59.120 Da li je moguće objediniti sve vrijednosti i prevesti ih u dolarsku vrijednost? 00:20:02.460 --> 00:20:13.079 1930.-ih bio je jedan psiholog koji je pokušao govoriti o drugom pitanju. 00:20:13.300 --> 00:20:17.730 Pokušao je dokazati ono što utilitarizam smatra istinom, 00:20:18.530 --> 00:20:24.700 da je zaista moguće prevesti sve robe, sve vrijednosti, 00:20:24.840 --> 00:20:26.300 sve do čega je ljudima stalo, 00:20:26.419 --> 00:20:28.692 u jedinstvenu uniformnu mjeru, 00:20:28.909 --> 00:20:34.290 a to je učinio tako da je proveo anketu među mladim primateljima socijalne pomoći. 00:20:34.390 --> 00:20:36.190 To je bilo 1930. -tih. 00:20:37.610 --> 00:20:41.449 Dao im je listu neugodnih doživljaja 00:20:42.000 --> 00:20:46.550 i pitao ih, 'Koliko bi trebali biti plaćeni da pristanete proživjeti ove stvari?' 00:20:47.021 --> 00:20:48.448 I vodio je bilješke. 00:20:49.530 --> 00:20:54.606 Na primjer, 'Koliko biste morali biti plaćeni da pristanete na vađenje prednjeg gornjeg zuba?' 00:20:56.840 --> 00:21:02.676 ili 'Koliko bi trebali biti plaćeni da pristanete da vam se odsiječe jedan mali nožni prst?' 00:21:05.030 --> 00:21:08.781 ili ' da jedete žive gliste od 20 cm' 00:21:10.510 --> 00:21:15.050 ili 'da ostatak života proživite na farmi u Kansasu' 00:21:19.430 --> 00:21:22.790 ili 'da golim rukama zadavite mačku lutalicu'? 00:21:24.400 --> 00:21:29.565 Što mislite, koja je bila najskuplja stavka na toj listi? 00:21:32.410 --> 00:21:33.520 Kansas? 00:21:39.750 --> 00:21:41.825 U pravu ste, bio je to Kansas. 00:21:44.840 --> 00:21:50.578 Za Kansas ljudi su rekli da bi morali biti plaćeni 300.000 dolara. 00:21:57.340 --> 00:22:02.127 Što mislite koja je bila sljedeća najskuplja stavka? 00:22:02.900 --> 00:22:03.970 Nije mačka, 00:22:05.710 --> 00:22:06.610 nije zub, 00:22:07.670 --> 00:22:09.480 nije nožni prst, 00:22:10.900 --> 00:22:12.061 glista! 00:22:16.290 --> 00:22:21.485 Ljudi su rekli da bi im trebali platiti sto tisuća dolara da pojedu glistu! 00:22:23.000 --> 00:22:25.990 Što mislite da je bila najmanje skupa stavka? 00:22:27.730 --> 00:22:28.770 Nije mačka, 00:22:30.010 --> 00:22:30.910 zub! 00:22:31.300 --> 00:22:37.100 U vrijeme depresije ljudi su bili voljni da im se izvadi zub za samo 4.500 dolara. 00:22:40.150 --> 00:22:46.200 Evo što je Thorndike zaključio iz svog istraživanja: 00:22:47.750 --> 00:22:53.630 svaka želja ili užitak koji postoje, postoje u nekoj količini i stoga su mjerljivi. 00:22:54.600 --> 00:22:57.939 Život psa ili mačke ili kokoši 00:22:58.109 --> 00:23:03.369 sastoji se od apetita, žudnji, želja i zadovoljenja. 00:23:04.290 --> 00:23:10.331 Isto vrijedi za život ljudskih bića, iako su apetiti i želje kompliciraniji. 00:23:12.450 --> 00:23:15.022 Ali što je s Thorndikeovom studijom? 00:23:15.570 --> 00:23:18.970 Podržava li ona Benthamovu ideju 00:23:20.210 --> 00:23:23.170 da sva dobra, sve vrijednosti 00:23:23.360 --> 00:23:27.809 mogu biti obuhvaćeni jednom uniformnom mjerom vrijednosti 00:23:28.190 --> 00:23:32.139 ili besmislenost ovih stavki na listi 00:23:33.459 --> 00:23:36.390 sugerira suprotni zaključak 00:23:37.220 --> 00:23:42.736 da možda - bez obzira govorimo li o životu ili Kanzasu ili glisti - 00:23:44.180 --> 00:23:48.485 možda stvari koje su nam vrijedne i važne 00:23:49.180 --> 00:23:53.670 ne mogu biti obuhvaćene jednom uniformnom mjerom vrijednosti. 00:23:54.280 --> 00:24:00.929 A ako ne mogu, koje su posljedice za utilitarističku teoriju morala? 00:24:01.750 --> 00:24:04.797 To je pitanje kojim ćemo nastaviti sljedeći puta. 00:24:13.179 --> 00:24:16.370 Uzmimo sada drugi dio glasova. 00:24:17.370 --> 00:24:22.159 Koji je doživljaj najvećeg užitka? 00:24:23.040 --> 00:24:25.927 Koliko vas kaže Shakespeare? 00:24:26.137 --> 00:24:28.467 KAKO MJERITI UGODU 00:24:31.720 --> 00:24:35.457 Koliko vas kaže Fear Factor (Faktor straha, serija)? 00:24:38.120 --> 00:24:40.546 Ne, nemoguće da ste ozbiljni, zaista? 00:24:47.820 --> 00:24:51.890 Prošli puta počeli smo razmatrati neke prigovore 00:24:53.510 --> 00:24:57.720 na verziju utilitarizma Jeremy Benthama. 00:25:01.790 --> 00:25:05.890 U raspravi koju smo vodili ljudi su iznijeli dva prigovora. 00:25:08.380 --> 00:25:12.520 Prvi prigovor odnosno tvrdnja bila je 00:25:12.710 --> 00:25:18.890 da utilitarizam baveći se 'najvećim dobrom za najveći broj' 00:25:19.450 --> 00:25:23.733 propušta primjereno poštovati prava pojedinca. 00:25:24.970 --> 00:25:30.780 Danas imamo debate o mučenju i terorizmu. 00:25:33.210 --> 00:25:38.739 Pretpostavimo da je osumnjičeni terorist uhićen 10. rujna 00:25:40.980 --> 00:25:45.969 i imate razloga vjerovati da je osumnjičeni 00:25:46.320 --> 00:25:49.640 imao ključne informacije o predstojećem terorističkom napadu 00:25:49.750 --> 00:25:51.580 u kojem će poginuti preko 3000 ljudi. 00:25:52.200 --> 00:25:54.799 I ne možete izvući informacije iz njega? 00:25:55.280 --> 00:26:00.118 Da li bi bilo pravedno mučiti osumnjičenika 00:26:01.070 --> 00:26:02.717 kako bi se dobile informacije? 00:26:03.060 --> 00:26:03.930 Ili 00:26:05.550 --> 00:26:11.880 kažete - Ne, postoji kategorična moralna obaveza poštovanja prava pojedinca 00:26:14.290 --> 00:26:17.439 Na neki način vratili smo se na pitanje s kojim smo počeli, 00:26:17.640 --> 00:26:21.176 o tramvaju i transplantaciji organa. To je prvo sporno pitanje. 00:26:23.910 --> 00:26:28.766 I sjećate se da smo razmatrali neke primjere analize troškova i koristi. 00:26:29.250 --> 00:26:33.116 Ali mnogo ljudi nije bilo zadovoljno s analizom troškova i koristi 00:26:33.870 --> 00:26:37.625 kad se radilo o pridjeljivanju dolarske vrijednosti ljudskom životu. 00:26:39.970 --> 00:26:43.013 I to nas je dovelo do drugog prigovora 00:26:44.500 --> 00:26:47.961 koji je doveo u pitanje mogućnost prevođenja svih vrijednosti 00:26:48.510 --> 00:26:51.549 na jednu uniformnu mjeru vrijednosti. 00:26:52.610 --> 00:26:56.386 Drugim riječima, pitanje je jesu li sve vrijednosti sumjerljive. 00:26:57.580 --> 00:27:05.344 Da vam dam još jedan primjer, ustvari, istinitu priču iz osobnog iskustva, 00:27:07.240 --> 00:27:13.380 koja barem postavlja pitanje mogu li se sve vrijednosti prevesti bez gubitka 00:27:13.610 --> 00:27:15.911 u utilitaritarističke termine. 00:27:19.759 --> 00:27:21.609 Prije puno godina 00:27:22.110 --> 00:27:25.170 kad sam bio na diplomskom studiju na Oxfordu u Engleskoj, 00:27:25.270 --> 00:27:29.400 i postojali su muški i ženski fakulteti, još nisu bili miješani. 00:27:29.800 --> 00:27:34.658 I ženski fakulteti imali su pravila zabrane noćnih posjeta za muške goste. 00:27:37.470 --> 00:27:42.843 U 1970.-ima ta su se pravila rijetko provodila i lako kršila 00:27:44.030 --> 00:27:45.870 ili su mi tako rekli. 00:27:51.600 --> 00:27:55.939 Kasnih sedamdesetih, kad sam ja bio tamo, porastao je pritisak za ublažavanje tih pravila 00:27:55.969 --> 00:28:01.060 i to je postalo predmet diskusije na St. Anne College, 00:28:01.100 --> 00:28:03.411 koji je bio jedan od tih fakulteta samo za žene. 00:28:03.840 --> 00:28:07.480 Starije žene na fakultetu bile su tradicionalisti, 00:28:07.550 --> 00:28:11.640 protivile su se promjeni na konvencionalnim moralnim osnovama. 00:28:12.820 --> 00:28:15.543 No, vremena su se promijenila i bilo im je neugodno 00:28:16.980 --> 00:28:19.870 iznijeti pravu osnovu svojih prigovora. 00:28:20.000 --> 00:28:24.069 I zato su svoje argumente prevele u utilitarističke termine. 00:28:25.640 --> 00:28:30.326 Ako muškarci ostaju preko noći, tvrdile su, povećat će se troškovi fakulteta. 00:28:31.460 --> 00:28:33.270 Kako, možda se pitate? 00:28:33.490 --> 00:28:37.119 Pa, poželjet će se okupati i potrošit će našu toplu vodu, rekle su. 00:28:38.879 --> 00:28:43.198 Nadalje, tvrdile su, morat ćemo češće mijenjati madrace. 00:28:46.780 --> 00:28:51.325 Reformatori su udovoljili tim zahtjevima usvajajući sljedeće kompromise: 00:28:52.120 --> 00:28:57.300 svaka žena može imati maksimalno tri noćna gosta tjedno 00:29:01.160 --> 00:29:04.827 - nisu rekli da li to mora biti ista osoba ili tri različite - 00:29:05.410 --> 00:29:08.716 uz uvjet, i u tome je bio kompromis, uz uvjet 00:29:09.240 --> 00:29:13.731 da gost plaća 50 pensa da namiri trošak fakulteta. 00:29:15.340 --> 00:29:20.345 Sljedeći dan pojavio se naslov u nacionalnim novinama: 00:29:20.840 --> 00:29:24.880 'Djevojke na St Anne, 50 pensa za noć'! 00:29:29.090 --> 00:29:35.130 Još jedna ilustracija teškoće prevođenja svih vrijednosti, 00:29:36.150 --> 00:29:38.585 - u ovom slučaju određene ideje vrline - 00:29:38.930 --> 00:29:41.054 u utilitarističke termine. 00:29:42.900 --> 00:29:49.970 Dakle, ovo sve je kao ilustracija drugog prigovora utilitarizmu, 00:29:50.050 --> 00:29:53.899 barem onog dijela tog prigovora koji dovodi u pitanje 00:29:54.780 --> 00:29:58.157 ispravnost utilitarizma u stajalištu 00:29:58.570 --> 00:30:04.599 da možemo prihvatiti uniformnost vrijednosti, sumjerljivost svih vrijednosti, 00:30:04.839 --> 00:30:10.649 i prevesti sva moralna razmatranja u dolare odnosno novac. 00:30:12.220 --> 00:30:17.996 No postoji i drugi aspekt brige u vezi agregiranja vrijednosti i preferencija. 00:30:19.690 --> 00:30:25.890 Zašto bismo trebali odvagnuti sve preferencije koje ljudi imaju 00:30:26.910 --> 00:30:31.206 bez procjenjivanja jesu li te preferencije dobre ili loše? 00:30:32.130 --> 00:30:39.091 Ne bismo li trebali razlikovati viša i niža zadovoljstva? 00:30:41.760 --> 00:30:48.300 Dio sklonosti da ne radimo kvalitatine razlike između vrijednosti preferencija ljudi, 00:30:48.490 --> 00:30:54.510 djelomično smo tome skloni zato jer je to neosuđujuće i egalitaristički. 00:30:55.250 --> 00:30:57.262 Benthamov utilitarista kaže: 00:30:57.540 --> 00:31:03.812 Svačije preferencije se računaju bez obzira na to što ljudi žele, 00:31:04.280 --> 00:31:07.505 bez obzira na to što veseli različite ljude. 00:31:08.070 --> 00:31:11.771 Za Benthama, važno je jedino, sjetit ćete se, 00:31:13.210 --> 00:31:17.261 intenzitet i trajanje zadovoljstva ili boli. 00:31:18.270 --> 00:31:23.264 Takozvana viša zadovoljstva ili plemenite vrline su jednostavno one, prema Benthamu, 00:31:24.040 --> 00:31:27.560 koje proizvode jače, duže zadovoljstvo. 00:31:29.040 --> 00:31:32.450 Čuvena fraza za iskazivanje te ideje je 00:31:32.790 --> 00:31:38.334 'količina zadovoljstva je jednaka, radi li se o pribadači ili poeziji'. 00:31:39.139 --> 00:31:40.814 Što je bila 'pribadača'? 00:31:41.339 --> 00:31:45.927 Bila je to neka vrsta dječje igre, 'igra pribadača dobra je koliko i poezija', 00:31:46.559 --> 00:31:47.684 kaže je Bentham. 00:31:48.850 --> 00:31:53.264 A, mislim da ispod te ideje leži tvrdnja, slutnja, 00:31:54.090 --> 00:32:02.040 da je oholo prosuđivati čija su zadovoljstva intrinzično viša ili vrednija ili bolja. 00:32:03.850 --> 00:32:07.590 I ima nešto privlačno u tom odbijanju da se prosuđuje, 00:32:07.700 --> 00:32:11.862 na koncu neki ljudi vole Mozarta, drugi Madonnu, 00:32:12.520 --> 00:32:16.490 neki ljudi vole balet, drugi kuglanje. 00:32:17.360 --> 00:32:19.939 Tko je taj koji će reći, mogao bi tvrditi Bentham, 00:32:20.030 --> 00:32:22.270 tko je taj koji će reći koja od tih zadovoljstava, 00:32:23.140 --> 00:32:27.965 čija zadovoljstva su viša, vrednija, plemenitija od drugih? 00:32:30.460 --> 00:32:32.700 Ali, je li to ispravno? 00:32:35.540 --> 00:32:38.754 To odbijanje da radimo kvalitativne razlike. 00:32:40.030 --> 00:32:44.182 Možemo li se mi sasvim odreći ideje 00:32:44.850 --> 00:32:51.180 da su određene stvari, koje nam čine zadovoljstvo, bolje ili vrednije od drugih? 00:32:53.470 --> 00:32:58.470 Sjetite se Rimljana u koloseumu, jedna stvar koja je u tome ljude smetala 00:32:58.610 --> 00:33:02.010 bilo je da su se time izgleda kršila prava kršćana. 00:33:04.010 --> 00:33:06.770 Druga zamjerka onome što se tu događa 00:33:07.250 --> 00:33:11.990 je uživanje Rimljana u tom krvavom spektaklu. 00:33:13.230 --> 00:33:17.534 Treba li to zadovoljstvo, koje je sramotno i na neki način korumpirano, 00:33:18.880 --> 00:33:20.480 ponižavajuće zadovoljstvo, 00:33:20.600 --> 00:33:26.530 treba li to uopće biti valorizirano odnosno vagano pri odlučivanju 00:33:26.960 --> 00:33:28.965 o tome što je opće dobro? 00:33:33.770 --> 00:33:36.770 Dakle, ovo su prigovori na Benthamov uitlitarizam, 00:33:38.760 --> 00:33:43.950 a sada se okrećemo nekome tko je pokušao odgovoriti na te prigovore, 00:33:45.410 --> 00:33:48.748 mlađi utilitarista, John Stuart Mill. 00:33:50.120 --> 00:33:53.260 Ono što sada trebamo ispitati 00:33:54.210 --> 00:34:01.409 je, da li John Stuart Mill ima uvjerljivi odgovor na ove prigovore utilitarizmu. 00:34:04.750 --> 00:34:12.500 John Stuart Mill je rođen 1806., njegov otac, James Mill bio je Benthamov učenik 00:34:14.079 --> 00:34:19.359 i James Mill se odlučio svom sinu, Johnu Stuartu Millu, dati primjereno obrazovanje. 00:34:20.329 --> 00:34:23.119 On je bio čudo od djeteta, John Stuart Mill, 00:34:23.569 --> 00:34:27.769 znao je grčki s tri godine, latinski s osam, 00:34:27.859 --> 00:34:30.866 a u dobi od 10 godina napisao je Povijest rimskog prava. 00:34:33.659 --> 00:34:36.790 U dobi od 20 godina doživio je živčani slom, 00:34:38.939 --> 00:34:41.527 to ga je bacilo u depresiju pet godina, 00:34:43.399 --> 00:34:46.469 ali sa 25, ono što mu je pomoglo da se izvuče iz te depresije 00:34:46.800 --> 00:34:48.865 je susret s Harriet Taylor. 00:34:49.949 --> 00:34:52.529 Ona Mill su se oženili i živjeli sretno do kraja života 00:34:52.659 --> 00:34:54.849 i bilo je to pod njenim utjecajem 00:34:56.399 --> 00:35:00.729 da je John Stuart Mill pokušao humanizirati utilitarizam. 00:35:01.430 --> 00:35:03.740 Ono što je Mill pokušao je učiniti je da ustanovi 00:35:03.899 --> 00:35:09.710 da li utilitarističko računanje može biti prošireno i modificirano 00:35:11.200 --> 00:35:15.209 kako bi zadovoljilo humanitarne dvojbe poput: 00:35:17.429 --> 00:35:19.510 brige za poštovanje prava pojedinca 00:35:20.390 --> 00:35:25.248 i također razlike između viših i nižih zadovoljstava. 00:35:26.389 --> 00:35:29.658 1859. Mill je napisao čuvenu knjigu 'O slobodi', 00:35:30.369 --> 00:35:35.399 čija je glavna tema važnost obrane prava pojedinca i prava manjina, 00:35:36.380 --> 00:35:39.246 a 1861. pred kraj života 00:35:39.909 --> 00:35:42.603 napisao je knjigu koju čitamo u okviru ovog kolegija 00:35:43.130 --> 00:35:44.545 'Utilitarizam'. 00:35:45.099 --> 00:35:50.289 U njoj pojašnjava da je korisnost jedino mjerilo moralnosti, po njemu. 00:35:50.769 --> 00:35:53.439 Dakle, on ne dovodi u pitanje Benthamovu premisu, 00:35:53.679 --> 00:35:55.009 on je potvrđuje. 00:35:55.279 --> 00:35:57.914 On vrlo izričito kaže, 'Jedini dokaz 00:35:58.829 --> 00:36:04.659 da je moguće postići da je bilo što poželjno, je taj da ljudi to zaista žele.' 00:36:05.929 --> 00:36:14.009 Dakle, on ostaje kod ideje da su de facto empirijske želje jedini temelj za moralnu prosudbu. 00:36:15.619 --> 00:36:19.709 Ali onda - strana 8 također u poglavlju 2 - 00:36:19.809 --> 00:36:26.698 on tvrdi da je utilitarista u mogućnosti razlikovati viša od nižih zadovoljstava. 00:36:28.700 --> 00:36:31.350 Vi koji ste već čitali Milla, 00:36:32.079 --> 00:36:35.989 kako je, po njemu, moguće utvrditi tu razliku? 00:36:36.559 --> 00:36:42.149 Kako utilitarista može kvalitativno razlikovati viša zadovoljstva 00:36:42.819 --> 00:36:45.900 od nižih, sramotnih, nevrijednih? 00:36:48.859 --> 00:36:53.873 Ako ste probali oba, prirodno ćete dati prednost onom višem, uvijek. 00:36:55.309 --> 00:36:57.499 Sjajno, to je točno. Kako se zovete? 00:36:57.499 --> 00:36:58.489 John. 00:36:59.669 --> 00:37:02.334 Pa, kako ističe John, Mill kaže, 00:37:02.529 --> 00:37:10.301 'Evo testa, budući da ne možemo iskoračiti izvan stvarnih želja i preferencija, 00:37:10.490 --> 00:37:13.109 to bi narušilo utilitarističke premise, 00:37:13.670 --> 00:37:14.869 jedini test 00:37:16.819 --> 00:37:20.260 da li je zadovoljstvo više ili niže, 00:37:20.549 --> 00:37:27.248 je da li bi mu netko tko je doživio oba, dao prednost. 00:37:28.909 --> 00:37:35.049 A ovdje, u poglavlju 2, vidimo odlomak u kojem Mill govori ono što je John opisao. 00:37:36.919 --> 00:37:40.130 'Od dva zadovoljstva, ako postoji jedno kojem bi svi, ili skoro svi, 00:37:40.130 --> 00:37:43.382 koji imaju iskustvo oba, 00:37:43.500 --> 00:37:45.243 dali odlučujuću prednost, 00:37:45.499 --> 00:37:49.049 bez obzira na bilo kakav osjećaj moralne obaveze da ga preferiraju, 00:37:49.049 --> 00:37:52.062 drugim riječima, bez ikakvog vanjskog, nezavisnog mjerila, 00:37:53.390 --> 00:37:56.596 onda je to poželjnije zadovoljstvo.' 00:37:57.529 --> 00:37:59.829 Što ljudi misle o tom argumentu? 00:38:01.549 --> 00:38:02.889 Da li je djelotvoran? 00:38:03.489 --> 00:38:05.833 Koliko vas misli da je djelotvoran 00:38:06.380 --> 00:38:11.089 za diskusiju o razlikovanju između viših i nižih zadovoljstava u terminima utilitarizma? 00:38:11.489 --> 00:38:13.560 Koliko vas misli da nije djelotvoran? 00:38:17.789 --> 00:38:19.691 Želim čuti vaše razloge. 00:38:20.829 --> 00:38:25.414 Ali prije no što izložimo razloge, napravit ćemo jedan pokus 00:38:26.329 --> 00:38:29.178 u vezi Millove tvrdnje. 00:38:31.389 --> 00:38:33.949 Da bismo mogli napraviti taj pokus 00:38:35.199 --> 00:38:43.045 pogledat ćemo tri kratka isječka popularne zabave. 00:38:44.889 --> 00:38:47.230 Prvi je Hamletov monolog 00:38:48.170 --> 00:38:52.939 iza kojeg slijede dva druga doživljaja. 00:38:55.420 --> 00:38:56.609 Da vidimo što vi mislite. 00:38:57.709 --> 00:38:59.677 'Kakvo je remek-djelo čovjek! 00:39:01.809 --> 00:39:03.343 Kako plemenit umom! 00:39:04.359 --> 00:39:06.429 Kako neograničen u sposobnostima! 00:39:06.749 --> 00:39:10.609 U liku i pokretu kako je izražajan i divan! 00:39:10.899 --> 00:39:14.409 U djelima kako sličan anđelu, u mislima kako sličan Bogu! 00:39:14.949 --> 00:39:17.837 Ljepota svijeta, uzor svim životinjama! 00:39:18.349 --> 00:39:23.179 Pa ipak, što je za mene ta kvintesencija prašine? 00:39:24.309 --> 00:39:26.227 Čovjek mene ne očarava.' 00:39:41.909 --> 00:39:45.576 'Zamislite svijet u kojem vaši najveći strahovi postaju stvarnost. 00:39:47.069 --> 00:39:51.929 Svaki show, šest natjecatelja iz cijele zemlje bore se međusobno u tri ekstremne egzibicije. 00:39:52.609 --> 00:39:58.421 Te egzibicije smišljene su kao izazovi za natjecatelje, fizički i mentalno. 00:39:58.579 --> 00:40:02.586 Šest natjecatelja, tri egzibicije, jedan pobjednik. 00:40:03.869 --> 00:40:05.135 Fear Factor. 00:40:12.299 --> 00:40:13.439 Simpsoni. 00:40:18.269 --> 00:40:21.100 Flanders, otkad ti voliš kul stvari? 00:40:21.210 --> 00:40:26.909 Pa, nije mi do brzine, ali obožavam tu zaštitnu opremu, kacige, zaštitne šipke, zastavice. 00:40:26.909 --> 00:40:30.896 Ja volim friški zrak i gledati jadnike na terenu. 00:40:34.189 --> 00:40:37.019 Dang Cletus, zašto si morao parkirati pokraj mojih roditelja? 00:40:37.139 --> 00:40:40.288 Ne draga, to su i moji roditelji. 00:40:55.759 --> 00:40:58.929 Ne moram ni pitati koji vam se najviše sviđao. 00:41:00.629 --> 00:41:04.017 Simpsoni? Kome su se najviše sviđali Simpsoni? 00:41:05.109 --> 00:41:06.715 Kome Shakespeare? 00:41:10.140 --> 00:41:11.760 A Fear Factor? 00:41:11.860 --> 00:41:13.929 Koliko vas više voli Fear Factor? 00:41:15.959 --> 00:41:17.064 Stvarno? 00:41:21.279 --> 00:41:24.639 Nadmoćnoj većini sviđaju se Simpsoni 00:41:25.769 --> 00:41:29.229 više od Shakespearea. 00:41:29.459 --> 00:41:32.732 U redu, uzmimo sad drugi dio glasača. 00:41:33.749 --> 00:41:38.370 Koji doživljaj odnosno užitak je najviši? 00:41:39.409 --> 00:41:42.179 Koliko ih kaže Shakespeare? 00:41:47.789 --> 00:41:50.636 Koliko ih kaže Fear Factor? 00:41:54.189 --> 00:41:56.559 Ne, vi se sigurno šalite. Ozbiljno? 00:42:01.039 --> 00:42:02.339 Samo naprijed, recite. 00:42:02.709 --> 00:42:04.391 Meni je to najzabavnije. 00:42:04.709 --> 00:42:08.368 Znam, ali koji doživljaj je za vas najvredniji, najplemenitiji. 00:42:08.368 --> 00:42:10.570 Znam da vam je to najzabavnije. 00:42:10.920 --> 00:42:17.553 Ako je nešto dobro samo zato što je ugodno, zašto je važno da imate neku apstraktnu ideju 00:42:17.553 --> 00:42:20.442 je li to dobro po mjerilima nekog drugog? 00:42:21.619 --> 00:42:24.248 Znači vi izravno stajete na stranu Benthama. 00:42:25.039 --> 00:42:28.099 Tko je taj koji će prosuditi? I zašto bi morali prosuđivati? 00:42:28.969 --> 00:42:33.570 Umjesto da samo registriramo i pribrojimo de facto preferencije. U redu, pošteno. 00:42:33.880 --> 00:42:35.149 Kako se vi zovete? 00:42:35.349 --> 00:42:36.749 Nate? U redu, pošteno. 00:42:38.219 --> 00:42:42.079 Koliko vas misli da su Simpsoni ustvari, osim što vam se sviđaju, 00:42:42.219 --> 00:42:46.982 da su ustvari doživljaj više razine od Shakespearea? 00:42:47.410 --> 00:42:49.419 Da vidimo ponovo glasove za Shakespearea. 00:42:49.579 --> 00:42:51.559 Koliko vas misli da je Shakespeare viši? 00:42:54.990 --> 00:43:00.419 Idealno bi bilo da čujem nekoga ... ima li koga tko misli da je Shakespeare najviši, 00:43:02.109 --> 00:43:04.914 ali radije gleda Simpsone? 00:43:08.739 --> 00:43:12.753 Samo sjediti i gledati Simpsone je zabavno jer se šale i nasmijavaju nas, 00:43:13.750 --> 00:43:16.379 ali netko nam mora reći da je Shakespeare veliki pisac, 00:43:16.379 --> 00:43:18.779 moramo naučiti kako ga čitati i kako ga razumijeti, 00:43:18.779 --> 00:43:22.689 moramo naučiti kako gledati Rembrandta, kako analizirati sliku. 00:43:23.150 --> 00:43:24.239 Kako se vi zovete? 00:43:24.239 --> 00:43:25.120 Aneesha. 00:43:25.560 --> 00:43:29.759 Aneesha, kad kažete da vam je netko rekao da je Shakespeare bolji, 00:43:31.259 --> 00:43:33.229 da li to prihvaćate 'na slijepo'? 00:43:33.379 --> 00:43:39.199 Glasali ste da je Shakespeare bolji samo zato jer vam to govori kultura ili učitelji? 00:43:39.279 --> 00:43:43.162 Ili se zaista sami slažete s tim? 00:43:44.049 --> 00:43:49.539 U odnosu na Shakesperea, ne, ali ranije ste dali primjer Rembrandta 00:43:49.740 --> 00:43:52.099 i mislim da bih više uživala čitajući strip 00:43:52.099 --> 00:43:56.672 nego što bih uživala analizirajući Rembrandta zato jer mi je netko rekao da je veliki slikar. 00:43:57.139 --> 00:44:03.089 Dakle vi sugerirate da bi nešto od toga bilo kulturna konvencija i pritisak. 00:44:03.249 --> 00:44:08.260 Rečeno nam je koje knjige, koja umjetnička djela su velika. 00:44:08.576 --> 00:44:09.570 Tko još? 00:44:15.309 --> 00:44:18.990 Iako sam više uživao gledajući Simpsone, ovaj čas na predavanju, 00:44:19.640 --> 00:44:26.302 kad bih morao ostatak svog života provesti s jednim od tri prikazana videa, 00:44:26.579 --> 00:44:33.574 ne bih želio provesti taj ostatak svog života gledajući zadnja dva videa. 00:44:33.800 --> 00:44:37.770 Mislim da bih više zadovoljstva našao u tome da budem u stanju 00:44:37.949 --> 00:44:39.709 razvijati se u vlastitom umu 00:44:41.009 --> 00:44:43.835 baveći se dubljim zadovoljstvima, dubljim mislima. 00:44:44.869 --> 00:44:46.100 Recite mi vaše ime. 00:44:46.280 --> 00:44:47.080 Joe. 00:44:48.580 --> 00:44:51.559 Joe, dakle kad bi morali ostatak života provesti 00:44:51.759 --> 00:44:59.879 na farmi u Kansasu samo sa Shakespearom ili zbirkom epizoda Simpsona, 00:45:02.079 --> 00:45:04.632 vi bi radije odabrali Shakespearea? 00:45:06.599 --> 00:45:11.239 Što iz toga zaključujete o testu John Stuart Milla? 00:45:12.149 --> 00:45:14.628 Da test višeg zadovoljstva pokazuje 00:45:14.698 --> 00:45:19.740 da li ljudi koji su doživjeli oba preferiraju dotično. 00:45:21.509 --> 00:45:23.480 Mogu li ukratko citirati drugi primjer? 00:45:23.880 --> 00:45:28.020 Na neurobiologiji prošle godine pričali su nam o pokusu sa štakorom 00:45:28.769 --> 00:45:31.889 gdje je štakor mogao stimulirati određeni centar u svom mozgu 00:45:32.029 --> 00:45:35.753 tako da uzastopno doživljava intenzivno zadovoljstvo. 00:45:35.879 --> 00:45:38.460 Štakor nije jeo ni pio sve dok nije umro. 00:45:39.229 --> 00:45:41.709 Štakor je očito doživljavao intenzivno zadovoljstvo. 00:45:42.179 --> 00:45:45.588 Pa sada, da me ovaj čas upitate da li bih radije doživio intenzivno zadovoljstvo 00:45:46.270 --> 00:45:49.530 ili imao cijeli život ispunjen višim zadovoljstvom, 00:45:49.610 --> 00:45:52.209 - intenzivno zadovoljstvo pritom smatram nižim zadovoljstvom - 00:45:52.319 --> 00:45:58.989 rado bih ovaj čas uživao u intenzivnom zadovoljstvu - da, sigurno bi - 00:46:00.949 --> 00:46:06.239 ali tokom cijelog života, mislim da bi se većina ovdje složila 00:46:06.899 --> 00:46:12.940 da bi radije bili ljudi s višim zadovoljstvom, nego taj štakor s intenzivnim zadovoljstvom 00:46:13.160 --> 00:46:14.799 u vrlo kratkom vremenskom periodu. 00:46:15.530 --> 00:46:20.399 A odgovarajući na vaše pitanje, to dokazuje da ... neću reći dokazuje, 00:46:21.349 --> 00:46:29.409 mislim da je zaključak da Millova teorija da ako se pita ljude što bi više voljeli, 00:46:31.439 --> 00:46:36.100 većina će odgovoriti da bi radije doživljavali više zadovoljstvo. 00:46:36.229 --> 00:46:39.356 Dakle, vi mislite da to podržava ... mislite da je Mill ovdje u pravu? 00:46:39.499 --> 00:46:40.428 Da, mislim. 00:46:40.739 --> 00:46:43.909 Ima li koga tko se ne slaže s Joeom, 00:46:44.169 --> 00:46:49.968 i tko misli da naš eksperiment opovrgava Millov test? 00:46:51.099 --> 00:46:52.969 Pokazuje da to nije adekvatan način, 00:46:53.239 --> 00:46:58.309 da ne možete raspoznati viša zadovoljstva u okvirima utilitarizma. 00:47:05.109 --> 00:47:08.199 Ako je uistinu dobro što god ljudi preferiraju, 00:47:08.199 --> 00:47:10.869 onda je to uistinu relativno i ne postoji objektivna definicija. 00:47:11.519 --> 00:47:14.548 U nekim društvima ljudi će preferirati Simpsone. 00:47:16.229 --> 00:47:18.070 Svatko može uživati u Simpsonima, 00:47:18.200 --> 00:47:21.360 ali mislim da je zaista nužna edukacija da se uživa u Shakespeareu. 00:47:21.450 --> 00:47:26.029 Vi kažete da je potrebna edukacija za uživanje u višim stvarima. 00:47:27.319 --> 00:47:34.209 Millov stav je da viša zadovoljstva zaista zahtijevaju kultivaciju i edukaciju. 00:47:35.090 --> 00:47:36.639 On to ne osporava. 00:47:37.520 --> 00:47:45.430 Ali jednom kad su kultivirani i educirani ljudi će uvidjeti, 00:47:45.560 --> 00:47:48.699 ne samo da će uvidjeti razliku između viših i nižih zadovoljstava, 00:47:49.009 --> 00:47:54.289 nego će zapravo preferirati viša pred nižima. 00:47:55.849 --> 00:47:58.739 Naći ćete taj čuveni citat John Stuart Milla: 00:47:59.419 --> 00:48:04.738 'Bolje je biti nezadovoljno ljudsko biće, nego zadovoljna svinja.' 00:48:05.819 --> 00:48:09.589 Bolje nezadovoljni Sokrat, nego zadovoljna budala. 00:48:10.539 --> 00:48:19.472 A ako budala ili svinja misle drugačije, to je zato jer znaju samo svoju stranu pitanja.' 00:48:20.700 --> 00:48:27.302 Dakle, tu imate pokušaj razlikovanja viših od nižih zadovoljstava, 00:48:28.719 --> 00:48:33.875 odnosno između posjeta muzeju i gledanja televizije uz bocu piva kod kuće. 00:48:34.709 --> 00:48:38.890 Mill se slaže da ponekad možda podliježemo iskušenju 00:48:40.710 --> 00:48:44.339 da radimo ovo zadnje, budemo TV ovisnici, 00:48:45.559 --> 00:48:50.359 ali čak i kad to radimo iz nemara i lijenosti, 00:48:50.680 --> 00:48:56.180 mi znamo da zadovoljstvo koje osjećamo zureći u Rembrandte u muzeju 00:48:56.800 --> 00:48:58.629 ustvari je više 00:48:59.809 --> 00:49:01.918 zato jer smo doživjeli oba. 00:49:03.190 --> 00:49:06.339 A to i jeste više zadovoljstvo, zurenje u Rembrandte, 00:49:06.490 --> 00:49:09.809 zato jer angažira naše više ljudske sposobnosti. 00:49:11.499 --> 00:49:16.991 Što je s Millovim pokušajem da odgovori na prigovor o pravima pojedinca? 00:49:18.890 --> 00:49:22.689 Na neki način on koristi istu vrstu argumenta. 00:49:25.329 --> 00:49:27.679 A to je predstavljeno u poglavlju 5. 00:49:27.859 --> 00:49:32.539 On kaže: 'Iako osporavam pretenzije bilo koje teorije koja postavlja 00:49:32.539 --> 00:49:36.454 imaginarni standard pravednosti neutemeljen na korisnosti, ...' 00:49:39.719 --> 00:49:45.419 Ali ipak, smatra da je pravednost utemeljena na korisnosti, 00:49:45.999 --> 00:49:53.529 glavni dio i neusporedivo najsvetiji i obvezujući dio svake moralnosti ...' 00:49:54.599 --> 00:49:58.799 Dakle, pravda jeste viša, individualna prava imaju prednost, 00:49:59.769 --> 00:50:04.169 ali ne iz razloga koji se razilaze sa utilitarističkim postavkama. 00:50:04.540 --> 00:50:08.449 'Pravednost je ime za određene moralne zahtjeve 00:50:08.919 --> 00:50:13.829 koji, na kolektivnoj razini, stoje više na skali društvene korisnosti 00:50:14.309 --> 00:50:22.180 i stoga predstavljaju mjerodavniju obavezu od bilo koje druge.' 00:50:23.200 --> 00:50:26.429 Dakle, pravednost je sveta, prvenstvena, povlaštena. 00:50:26.530 --> 00:50:30.243 To nije nešto što se može lako razmijeniti za manje vrijedne stvari, 00:50:30.890 --> 00:50:36.999 ali razlog je, u konačnici, tvrdi Mill, utilitaristički razlog 00:50:37.569 --> 00:50:42.029 Kad pogledate dugoročne interese ljudske vrste, 00:50:43.529 --> 00:50:46.589 svih nas kao progresivnih bića, 00:50:47.409 --> 00:50:50.173 ako postupamo pravedno i poštujemo prava, 00:50:50.689 --> 00:50:54.329 društvu će kao cjelini biti bolje, dugoročno gledano. 00:50:55.569 --> 00:50:57.619 Je li to uvjerljivo? 00:50:57.999 --> 00:51:05.588 Ili, da li Mills ustvari, ne priznajući to, izlazi izvan utilitarističkih okvira 00:51:06.219 --> 00:51:11.159 zalažući se za kvalitativno viša zadovoljstva 00:51:12.789 --> 00:51:17.349 i za sveta, odnosno posebno važna, prava pojedinca? 00:51:18.479 --> 00:51:20.999 Mi nismo u potpunosti odgovorili na to pitanje 00:51:21.269 --> 00:51:25.668 jer da bi se odgovorilo na to pitanje, u slučaju prava i pravednosti, 00:51:26.259 --> 00:51:31.859 nužno bi bilo istražiti druge načine, ne-utilitarističke načine, 00:51:33.369 --> 00:51:35.401 tumačenja osnove prava 00:51:36.479 --> 00:51:39.459 i onda se zapitati da li su valjana. 00:51:40.409 --> 00:51:42.133 Što se tiče Jeremy Benthama, 00:51:42.949 --> 00:51:48.739 koji je lansirao utilitarizam kao doktrinu i moralnu i pravnu filozofiju, 00:51:49.979 --> 00:51:53.269 Bentham je umro 1832. u dobi od 85 godina, 00:51:53.819 --> 00:51:57.509 ali ako odete u London možete ga i danas posjetiti, doslovno. 00:51:58.729 --> 00:52:02.828 U svojoj oporuci pobrinuo se da njegovo tijelo bude konzervirano, 00:52:03.390 --> 00:52:06.751 balzamirano i izloženo na sveučilištu University of London 00:52:07.739 --> 00:52:14.267 gdje još uvijek zasjeda u staklenoj vitrini s voštanom glavom u svojoj stvarnoj odjeći. 00:52:14.989 --> 00:52:20.689 Vidite, prije no što je umro Bentham si je postavio pitanje sukladno svojoj filozofiji, 00:52:22.339 --> 00:52:25.839 od kakve koristi bi mrtav čovjek mogao biti živima? 00:52:26.839 --> 00:52:30.263 Jedna korist, rekao je, bila bi staviti svoj leš na raspolaganje 00:52:30.499 --> 00:52:32.113 za studiranje anatomije. 00:52:33.519 --> 00:52:35.841 U slučaju velikih filozofa, međutim, 00:52:37.129 --> 00:52:43.619 još je bolje sačuvati svoju fizičku prisutnost kao inspiraciju budućim generacijama mislilaca. 00:52:44.599 --> 00:52:47.298 Želite vidjeti kako izgleda punjeni Bentham? 00:52:47.419 --> 00:52:48.440 Ovako izgleda. 00:52:53.549 --> 00:52:56.154 Ako pogledate pažljivo, primjetit ćete 00:52:57.459 --> 00:53:04.970 da balzamiranje njegove stvarne glave nije baš uspjelo pa su je zamijenili voštanom, 00:53:06.910 --> 00:53:13.789 a na dnu radi vjerodostojnosti možete vidjeti njegovu pravu glavu na tanjuru. 00:53:16.529 --> 00:53:17.319 Vidite? 00:53:17.809 --> 00:53:18.910 Ovdje. 00:53:22.159 --> 00:53:24.360 Pa, koja je pouka priče? 00:53:25.709 --> 00:53:26.959 Pouka priče ... 00:53:29.499 --> 00:53:33.341 Usput, vade ga za vrijeme zasjedanja vijeća na University College London, 00:53:33.699 --> 00:53:37.444 a u zapisniku ga bilježe kao prisutnog bez prava glasa. 00:53:40.079 --> 00:53:49.799 Ovdje je filozof u životu i smrti koji se držao principa svoje filozofije. 00:53:49.900 --> 00:53:52.260 Idući puta nastavit ćemo s pravima.