WEBVTT 00:00:20.040 --> 00:00:23.040 Pravednost Michael Sandel 00:00:23.920 --> 00:00:26.580 Ima li život cijenu? 00:00:29.390 --> 00:00:37.510 Prošli puta diskutirali smo o slučaju Karljica protiv Dudleya i Stephensa, 00:00:39.400 --> 00:00:43.079 slučaj u čamcu za spasavanje, slučaj kanibalizma na moru, 00:00:45.970 --> 00:00:49.620 i imajući na umu argumente slučaja čamca za spasavanje, 00:00:49.839 --> 00:00:53.220 argumente za i protiv onoga što su učinili Dudley i Stephens, 00:00:54.150 --> 00:01:00.200 vratimo se na utilitarističku filozofiju Jeremya Benthama. 00:01:02.060 --> 00:01:04.570 Bentham je rođen u Engleskoj 1748., 00:01:04.620 --> 00:01:08.978 sa 12 godina pohađao je Oxford, sa 15 se upisao na pravni fakultet. 00:01:09.740 --> 00:01:14.092 Sa 19 primljen je u Odvjetničku komoru, ali nikada se nije bavio pravom, 00:01:14.820 --> 00:01:19.816 umjesto toga posvetio je život filozofiji prava i filozofiji morala. 00:01:22.170 --> 00:01:26.715 Prošli puta počeli smo razmatrati Benthamovu verziju utilitarizma. 00:01:27.690 --> 00:01:30.990 Glavna ideja, sažeto sročena, je ova: 00:01:32.780 --> 00:01:37.700 najviši princip morala, bilo osobnog ili političkog morala, 00:01:40.529 --> 00:01:43.780 je maksimiziranje općeg dobra 00:01:44.000 --> 00:01:46.170 ili kolektivne sreće, 00:01:46.560 --> 00:01:49.244 ili ukupne ravnoteže zadovoljstva nad boli 00:01:50.070 --> 00:01:53.338 u izrazu maksimizirane korisnosti. 00:01:56.150 --> 00:01:59.747 Bentham dolazi do tog principa rasuđujući na sljedeći način: 00:02:00.570 --> 00:02:02.650 svima nama upravljaju bol i zadovoljstvo, 00:02:03.150 --> 00:02:07.889 oni su naši suvereni gospodari, pa ih svaki moralni sistem mora uzeti u obzir. 00:02:08.828 --> 00:02:10.819 Kako ih najbolje uzeti u obzir? 00:02:10.999 --> 00:02:12.392 Maksimiziranjem 00:02:13.739 --> 00:02:17.999 i to vodi principu 'najvećeg dobra za najveći broj'. 00:02:19.004 --> 00:02:21.394 Što bismo točno trebali maksimizirati? 00:02:22.749 --> 00:02:24.978 Bentham nam kaže - sreću 00:02:25.510 --> 00:02:28.256 ili, preciznije, korisnost. 00:02:28.679 --> 00:02:33.439 Maksimiziranje korisnosti nije najvažnije samo za pojedince, već i za zajednice 00:02:33.929 --> 00:02:35.460 i zakonodavce. 00:02:36.569 --> 00:02:39.239 Na koncu, što je zajednica? - pita Bentham. 00:02:41.359 --> 00:02:44.377 To je suma pojedinaca koji je sačinjavaju. 00:02:44.779 --> 00:02:47.520 I zbog toga, u odlučivanju o najboljim politikama, 00:02:47.650 --> 00:02:51.360 u odlučivanju što bi trebalo biti zakon, u odlučivanju što je pravedno, 00:02:52.380 --> 00:02:56.609 građani i zakonodavci bi se trebali zapitati: 00:02:56.609 --> 00:03:00.760 Ako zbrojimo sve prednosti ove politike 00:03:03.870 --> 00:03:06.447 i oduzmemo sve troškove, 00:03:08.829 --> 00:03:11.429 ispravna stvar koju treba učiniti je ona 00:03:11.779 --> 00:03:16.665 koja maksimizira saldo sreće nad patnjom. 00:03:20.869 --> 00:03:22.629 To znači maksimizirati korisnost. 00:03:23.769 --> 00:03:29.498 Danas želim ustanoviti da li se vi slažete s tim ili ne. 00:03:30.700 --> 00:03:36.200 A ta utilitarna logika često dolazi pod nazivom analiza troškova i koristi 00:03:36.650 --> 00:03:42.429 koju koriste kompanije i vlade cijelo vrijeme. 00:03:43.369 --> 00:03:49.578 A ono što ona uključuje je vrednovanje, obično u dolarima, korisnosti, 00:03:50.899 --> 00:03:54.797 kao i troškova i prednosti raznih prijedloga. 00:03:56.309 --> 00:03:58.529 Nedavno je u Republici Češkoj 00:03:58.879 --> 00:04:02.700 predstavljen prijedlog za povećanje trošarine na pušenje. 00:04:03.120 --> 00:04:05.980 Philip Morris, duhanska kompanija, 00:04:07.679 --> 00:04:10.439 ostvaruje veliku dobit u Republici Češkoj. 00:04:10.669 --> 00:04:14.579 Oni su naručili studiju analize troškova i koristi 00:04:15.148 --> 00:04:18.068 za pušenje u Republici Češkoj. 00:04:18.678 --> 00:04:21.787 I ono što je ustanovila ta studija analize troškova i koristi, 00:04:23.550 --> 00:04:29.396 je da vlada ostvaruje dobit zahvaljujući pušenju čeških građana. 00:04:30.779 --> 00:04:32.360 Pa, kako ostvaruju dobit? 00:04:32.660 --> 00:04:38.519 Istina je da postoje negativni učinci na javne financije češke vlade, 00:04:40.000 --> 00:04:45.694 zbog povećanih troškova zdravstva za ljude koji pate od bolesti povezanih s pušenjem, 00:04:47.239 --> 00:04:49.799 s druge strane, postoje pozitivni učinci, 00:04:50.730 --> 00:04:54.600 a to su, pribrojeni na drugoj strani bilance, 00:04:55.379 --> 00:04:59.180 pozitivni učinci su uključivali, najvećim dijelom, razne porezne prihode 00:04:59.260 --> 00:05:03.539 koje vlada ostvaruje prodajom duhanskih proizvoda, 00:05:03.800 --> 00:05:08.305 no također su uključivali uštede u zdravstvu kad ljudi umiru ranije, 00:05:08.910 --> 00:05:12.466 uštede na penzijama - ne morate plaćati penzije tako dugo - 00:05:13.339 --> 00:05:17.149 i također uštede na troškovima domova za starije. 00:05:19.679 --> 00:05:22.679 I kad su bili sumirani svi troškovi i koristi, 00:05:24.064 --> 00:05:27.034 studija Philip Morrisa je ustanovila 00:05:27.870 --> 00:05:32.010 da neto dobit javnih financija Republike Češke iznosi 00:05:32.610 --> 00:05:35.479 147 milijuna dolara, 00:05:36.449 --> 00:05:40.670 a u odnosu na uštede na smještaju i zdravstvenoj skrbi i mirovinama, 00:05:41.407 --> 00:05:50.839 vlada uživa uštedu od preko 1200 dolara za svaku osobu koja prerano umre zbog pušenja. 00:05:51.919 --> 00:05:53.870 Analiza troškova i koristi. 00:05:56.740 --> 00:06:02.289 Oni od vas koji brane utilitarizam mogli bi pomisliti da ovaj test nije fer. 00:06:03.389 --> 00:06:09.130 Philip Morris je bio razapet u štampi i objavio je ispriku za ovu bezdušnu kalkulaciju. 00:06:10.680 --> 00:06:13.089 Mogli biste reći da je ono što ovdje nedostaje 00:06:13.139 --> 00:06:17.252 nešto što utilitaristi mogu lako ugraditi, napose 00:06:19.339 --> 00:06:24.160 vrijednost za osobu i obitelji onih koji umiru od raka pluća. 00:06:25.599 --> 00:06:27.642 A što je sa vrijednošću života? 00:06:29.190 --> 00:06:35.554 Neke analize troškova i koristi sadržavaju mjeru za vrijednost života. 00:06:36.809 --> 00:06:40.933 Jedan od najpoznatijih je slučaj Ford Pinto automobila. 00:06:41.330 --> 00:06:44.138 Je li itko čitao o tome? To je bilo 1970.-tih. 00:06:44.298 --> 00:06:47.499 Sjećate se da je Ford Pinto bio marka automobila? 00:06:47.750 --> 00:06:48.639 Itko? 00:06:51.029 --> 00:06:54.899 To je bio mali auto, kompakt klase, vrlo popularan, 00:06:55.949 --> 00:07:00.849 ali imao je jedan problem, a to je da je rezervoar za gorivo bio straga 00:07:01.599 --> 00:07:04.718 i kod udarca u stražnji dio rezervoar bi eksplodirao 00:07:07.660 --> 00:07:11.570 i neki ljudi su poginuli, a neki su bili ozbiljno povrijeđeni. 00:07:13.749 --> 00:07:18.348 Žrtve tih nesreća tužile su Ford, 00:07:18.768 --> 00:07:21.438 a na suđenju se ispostavilo 00:07:21.669 --> 00:07:26.710 da je Ford odavno znao za riskantnost rezervoara za gorivo 00:07:27.499 --> 00:07:32.169 i da je napravio analizu troškova i koristi kako bi ustanovio da li bi se isplatilo 00:07:33.599 --> 00:07:35.833 ugraditi posebni štit 00:07:36.090 --> 00:07:39.574 koji bi zaštitio rezervoar i spriječio da eksplodira. 00:07:40.490 --> 00:07:42.519 Napravili su analizu troškova i koristi; 00:07:42.979 --> 00:07:48.766 cijena dijela koji bi povećao sigurnost Pinta, 00:07:50.299 --> 00:07:53.568 izračunali su da iznosi 11 dolara po komadu. 00:07:55.939 --> 00:08:01.347 A ovo je analiza troškova i koristi koja se pojavila na suđenju, 00:08:02.879 --> 00:08:08.812 11 dolara po komadu za 12,5 milijuna automobila i kamiona 00:08:09.670 --> 00:08:15.938 iznosila je ukupno 137 milijuna dolara za povećanje sigurnosti. 00:08:17.370 --> 00:08:22.178 A onda su izračunali prednosti ulaganja tog novca u sigurniji auto. 00:08:23.300 --> 00:08:28.197 Prebrojali su 180 smrti i pridijelili dolarsku vrijednost: 00:08:29.130 --> 00:08:31.079 200 tisuća dolara po jednoj smrti. 00:08:32.170 --> 00:08:36.820 180 povreda - 67 tisuća dolara; 00:08:37.490 --> 00:08:40.999 i onda troškovi popravka i zamjene za 2000 vozila, 00:08:40.999 --> 00:08:44.174 koji bi bili uništeni bez tog zaštitnog dijela, 00:08:44.719 --> 00:08:46.875 700 dolara po vozilu. 00:08:48.060 --> 00:08:53.690 Tako se pokazalo da bi prednosti iznosile samo 49,5 milijuna 00:08:53.930 --> 00:08:56.920 i stoga nisu ugradili tu zaštitu. 00:08:57.570 --> 00:09:00.519 Nepotrebno je napominjati, da kad se taj memo 00:09:01.700 --> 00:09:06.420 o analizi troškova i koristi kompanije Ford Motor Company pojavio na suđenju, 00:09:09.160 --> 00:09:13.220 prenerazio je porotnike, koji su dosudili goleme odštete. 00:09:15.950 --> 00:09:20.020 Je li to protuprimjer za utilitarističku ideju izračuna? 00:09:20.360 --> 00:09:24.644 Jer Ford je uključio mjeru za vrijednost života. 00:09:27.320 --> 00:09:31.940 Tko bi od vas želio braniti analizu troškova i koristi 00:09:33.190 --> 00:09:35.120 u ovom očitom protuprimjeru? 00:09:35.320 --> 00:09:36.740 Tko ima obranu? 00:09:38.520 --> 00:09:43.350 Ili mislite da to u potpunosti ruši cijeli utiilitaristički izračun? 00:09:47.410 --> 00:09:50.970 Ja mislim da su opet napravili isti grešku kao u prethodnom slučaju 00:09:51.220 --> 00:09:56.116 pridijelivši dolarsku vrijednost ljudskom životu ne uzimajući u obzir stvari poput 00:09:56.270 --> 00:10:02.990 patnje i emocionalni gubitak obitelji, koje su izgubile prihode, ali i svoje voljene. 00:10:03.860 --> 00:10:06.700 a to vrijedi više od 200 tisuća dolara. 00:10:06.820 --> 00:10:08.540 Čekajte, kako se vi zovete? 00:10:09.171 --> 00:10:10.177 Julie Roto. 00:10:10.480 --> 00:10:15.060 Pa, Julie, 200 tisuća je preniska cifra 00:10:15.230 --> 00:10:20.100 jer ne uključuje gubitak voljenih i gubitak svih tih godina života. 00:10:21.660 --> 00:10:25.650 Što vi mislite, koji bi broj bio točniji? 00:10:26.970 --> 00:10:28.660 Ne vjerujem da mogu dati broj, 00:10:28.660 --> 00:10:33.000 mislim da se takva vrsta analize ne bi smjela koristiti u pitanjima ljudskog života. 00:10:33.000 --> 00:10:35.639 Mislim da se to ne može izraziti novčano. 00:10:36.200 --> 00:10:39.270 Dakle, oni ne samo da su stavili premalu brojku, 00:10:39.270 --> 00:10:44.510 kaže Julie, nego su pogriješili uopće stavljajući bilo koji broj. 00:10:44.510 --> 00:10:49.540 U redu, da čujemo nekoga tko ... 00:10:49.540 --> 00:10:51.860 Morate uzeti u obzir inflaciju? 00:10:57.700 --> 00:10:59.130 U redu, pošteno. 00:11:00.050 --> 00:11:02.660 Pa koji bi to onda broj sada bio? 00:11:02.660 --> 00:11:07.640 To je bilo prije 35 godina. 00:11:07.640 --> 00:11:10.330 Dva milijuna dolara? 00:11:10.330 --> 00:11:12.030 Vi bi stavili dva milijuna? 00:11:12.030 --> 00:11:14.079 A kako se vi zovete? 00:11:14.080 --> 00:11:15.410 Voicheck. 00:11:15.410 --> 00:11:17.329 Voicheck kaže, moramo uzeti u obzir inflaciju 00:11:17.330 --> 00:11:19.640 Trebali bi biti velikodušniji. 00:11:19.640 --> 00:11:25.170 Bi li tada smatrali da je ovo ispravan način razmišljanja o tom pitanju? 00:11:25.170 --> 00:11:27.310 Pretpostavljam, nažalost tu negdje treba staviti broj, 00:11:27.310 --> 00:11:29.589 nisam siguran koji bi to broj bio, ali se slažem da bi se mogao staviti broj 00:11:29.590 --> 00:11:32.980 na ljudski život. 00:11:41.060 --> 00:11:42.439 U redu. Dakle Voicheck kaže, 00:11:44.420 --> 00:11:46.280 i tu se ne slaže s Julie, ... 00:11:46.649 --> 00:11:49.750 Julie kaže, ne možemo staviti broj na ljudski život u svrhu analize troškova i koristi. 00:11:49.750 --> 00:11:53.670 Voicheck kaže - moramo jer moramo donositi odluke, nekako. 00:11:59.870 --> 00:12:04.750 Što drugi misle o tome? 00:12:04.750 --> 00:12:06.270 Je li itko ovdje spreman braniti analizu troškova i koristi? 00:12:06.270 --> 00:12:09.810 Kao točnu i poželjnu? 00:12:09.810 --> 00:12:16.000 Ja mislim kad Ford i druge auto kompanije ne bi koristile analizu troškova i koristi 00:12:16.000 --> 00:12:18.949 na koncu bi propale jer ne bi mogle biti profitabilne 00:12:18.949 --> 00:12:23.139 i milijuni ljudi ne bi mogli koristiti njihove aute za odlazak na posao 00:12:23.139 --> 00:12:27.939 kako bi prehranili svoju djecu. 00:12:27.939 --> 00:12:29.699 Zato mislim da ako se ne koristi analiza troškova i dobiti 00:12:29.700 --> 00:12:31.870 žrtvuje se opće dobro u tom slučaju. 00:12:31.870 --> 00:12:34.810 Dobro, da vas pitam kako se zovete? 00:12:34.810 --> 00:12:37.599 Raul. 00:12:37.600 --> 00:12:41.760 Raul, nedavno je provedena studija o upotrebi mobitela u autu za vrijeme vožnje 00:12:43.090 --> 00:12:47.080 i vodi se diskusija o tome treba li to zabraniti 00:12:48.660 --> 00:12:50.689 Procjena je da oko 2000 ljudi umire u nesrećama svake godine 00:12:50.690 --> 00:12:54.990 zbog korištenja mobitela. 00:13:02.120 --> 00:13:07.860 a ipak analiza troškova i koristi koju je napravio Centar za analizu rizika na Harvardu 00:13:07.860 --> 00:13:10.520 ustanovila je da ako pogledate prednosti korištenja mobitela 00:13:13.560 --> 00:13:15.089 i procijenite vrijednost života, dođe skoro na isto 00:13:19.050 --> 00:13:23.290 zbog goleme ekonomske korisnosti omogućavanja ljudima da iskoriste vrijeme, 00:13:23.290 --> 00:13:27.370 da ne gube vrijeme, da mogu ugovarati poslove i razgovarati s prijateljima i tako dalje 00:13:27.370 --> 00:13:30.370 za vrijeme vožnje. 00:13:30.370 --> 00:13:32.060 Ne sugerira li to da je pogrešno ljudski život vrednovati novčanim iznosima? 00:13:37.590 --> 00:13:39.330 Pa, ja mislim da ako velika većina ljudi 00:13:41.780 --> 00:13:47.569 pokušava izvući maksimum korisnosti iz usluge kao što je upotreba mobitela 00:13:47.570 --> 00:13:47.989 i pogodnosti koju pružaju mobiteli, 00:13:47.989 --> 00:13:50.400 tada je žrtva nužna 00:13:50.400 --> 00:13:52.160 da bi ljudi bili zadovoljni. 00:13:53.230 --> 00:13:59.200 Vi ste otvoreno utilitarista. 00:13:59.200 --> 00:14:02.820 Da. 00:14:02.820 --> 00:14:05.810 Zadnje pitanje Raul, 00:14:05.810 --> 00:14:07.829 a postavio sam ga i Voichecku. 00:14:07.829 --> 00:14:12.870 Koliko bi morala biti cijena ljudskog života u dolarima da bi se zabranilo korištenje mobitela? 00:14:12.870 --> 00:14:14.640 Ne želim proizvoljno računati brojke ovoga časa... 00:14:21.350 --> 00:14:23.610 Želite li to uzeti u razmatranje? 00:14:23.610 --> 00:14:24.790 Da, uzet ću to ... 00:14:24.790 --> 00:14:28.689 Ali ugrubo koliko bi to bilo? Imate 2300 smrti, 00:14:28.690 --> 00:14:32.400 morate odrediti dolarsku vrijednost da biste znali želite li spriječiti te smrti 00:14:32.400 --> 00:14:37.069 zabranom upotrebe mobitela u autima. 00:14:37.070 --> 00:14:38.900 Pa, koje bi bilo vaše nagađanje? 00:14:38.900 --> 00:14:40.350 Koliko? 00:14:40.350 --> 00:14:40.799 Milijun, dva milijuna? 00:14:42.280 --> 00:14:44.410 Dva milijuna je bila Voitechova cifra. 00:14:44.410 --> 00:14:46.120 Je li to otprilike točno? 00:14:46.120 --> 00:14:50.500 Možda milijun. 00:14:50.500 --> 00:14:55.110 Milijun?! 00:14:55.110 --> 00:15:00.440 Dobro je, hvala. 00:15:00.440 --> 00:15:01.859 To su neke kontraverze koje proizlaze iz analize troškova i koristi, 00:15:01.859 --> 00:15:06.770 posebno one koje uključuju pridjeljivanje dolarske vrijednosti svemu što ulazi u zbroj. 00:15:06.770 --> 00:15:08.840 Sada bih se želio okrenuti vašim prigovorima, 00:15:08.840 --> 00:15:15.110 vašim prigovorima ne nužno na analizu troškova i koristi izričito, 00:15:15.110 --> 00:15:18.400 jer to je samo jedna verzija utilitarističke logike u današnjoj praksi, 00:15:21.960 --> 00:15:26.830 nego na teoriju u cjelini, 00:15:26.830 --> 00:15:30.000 ideji da je ispravni postupak, 00:15:30.000 --> 00:15:33.710 pravedna osnova za politiku i zakon, 00:15:33.710 --> 00:15:35.559 maksimiziranje korisnosti. 00:15:39.750 --> 00:15:41.590 Koliko vas se ne slaže s utilitarističkim pristupom 00:15:44.330 --> 00:15:46.390 zakonu i općem dobru? 00:15:48.480 --> 00:15:52.230 Koliko vas se slaže? 00:15:52.230 --> 00:15:55.200 Dakle više vas je koji se slažu ngo onih koji se ne slažu. 00:15:55.200 --> 00:15:59.560 Pa da čujemo kritičare. 00:15:59.560 --> 00:16:02.209 Moj glavni problem s tim je da mi se čini da ne možete reći ... 00:16:02.209 --> 00:16:06.280 samo zato što je netko u manjini, da su njegove želje i potrebe manje vrijedne 00:16:06.280 --> 00:16:11.650 nego onih koji su u većini. 00:16:11.650 --> 00:16:14.189 Pretpostavljam da imam problem s idejom da je 00:16:14.190 --> 00:16:16.099 'najveće dobro za najveći broj' u redu jer što je onda s ljudima kojih je manji broj, 00:16:21.040 --> 00:16:24.719 To nije fer prema njima jer nemaju pravo glasa o tome što oni žele. 00:16:25.840 --> 00:16:28.880 To je zanimljiv prigovor, vi brinete o učinku na manjinu? 00:16:28.880 --> 00:16:32.460 Da. 00:16:32.460 --> 00:16:34.940 Usput, kako se zovete? 00:16:34.940 --> 00:16:39.819 Anna. 00:16:39.819 --> 00:16:41.689 Tko ima odgovor na Anninu brigu za učinak na manjinu? 00:16:41.690 --> 00:16:42.540 Što kažete Anni? 00:16:42.540 --> 00:16:47.490 Ona kaže da manjine vrijede manje. Ja mislim da to nije slučaj 00:16:47.490 --> 00:16:51.339 jer pojedinci u manjini vrijede sasvim jednako kao pojedinci u većini. 00:16:51.339 --> 00:16:54.520 Samo je stvar u tome da brojevi prevladavaju manjinu. 00:16:55.670 --> 00:16:58.919 U određenom trenutku morate donijeti odluku, 00:16:58.919 --> 00:17:01.510 žao mi je manjine, ali ponekad je to za veće dobro. 00:17:03.670 --> 00:17:08.839 Za veće dobro. Anna, što vi kažete? Vaše ime? 00:17:08.839 --> 00:17:10.839 Youngda. 00:17:10.839 --> 00:17:13.589 Youngda kaže morate samo zbrojiti preferencije ljudi, 00:17:13.589 --> 00:17:17.698 a oni preferencije onih u manjini zaista se mjere. 00:17:17.699 --> 00:17:22.000 Možete li dati neki primjer za ono što vas brine 00:17:22.000 --> 00:17:24.880 kad kažete da ste zabrinuti da utilitarizam krši interes i uvažavanje manjine? 00:17:27.970 --> 00:17:29.730 Možete li dati neki primjer? 00:17:29.730 --> 00:17:35.179 Pa u odnosu na svaki od slučajeva o kojima smo govorili, poput brodoloma, 00:17:35.179 --> 00:17:36.450 mislima da je dječak koji pojeden ipak imao jednako pravo na život kao i drugi ljudi, 00:17:43.560 --> 00:17:44.710 a samo zato što je bio 'manjina' u tom slučaju, 00:17:44.710 --> 00:17:45.980 onaj koji je možda imao manje šanse da nastavi živjeti, 00:17:53.460 --> 00:17:54.870 to ne znači da drugi automatski imaju pravo da ga pojedu 00:17:58.450 --> 00:17:59.680 samo zato jer bi to većem broju ljudi pružilo šansu da preživi. 00:18:03.290 --> 00:18:05.740 Dakle, možda postoje određena prava koja imaju manjine odnosno pojedinac 00:18:07.850 --> 00:18:12.550 koja ne bi smjela biti razmjenjivana u ime korisnosti? 00:18:16.520 --> 00:18:18.210 Da, Anna? 00:18:18.210 --> 00:18:21.990 Ovo bi bio test za vas. 00:18:21.990 --> 00:18:24.550 U drevnom Rimu bacali su kršćane lavovima u koloseumu iz sporta. 00:18:29.510 --> 00:18:33.890 Ako razmislite o načinu utilitarističkog računanja - 00:18:33.890 --> 00:18:38.770 da, krščanin bačen lavu proživljava ogromni neipodnošljivi bol, 00:18:38.770 --> 00:18:45.770 ali pogledajte kolektivnu ekstazu Rimljana! 00:18:48.460 --> 00:18:50.580 Youngda. 00:18:50.580 --> 00:18:51.889 Pa, u to vrijeme ... 00:18:54.920 --> 00:19:01.710 U moderno vrijeme, uzimajući u obzir radost pruženu ljudima koji gledaju, 00:19:05.300 --> 00:19:07.490 mislim da niti jedan kreator politike ne bi rekao da je patnja jednog čovjeka puno ... 00:19:11.390 --> 00:19:14.680 u usporedbi sa radošću koju donosi ... 00:19:14.680 --> 00:19:20.460 Ne, ali morate priznati da u slučaju da je dovoljan broj Rimljana bio izbezumljen od sreće 00:19:20.460 --> 00:19:25.220 to bi prevladalo nad čak i najužasniju bol nekolicine kršćana bačenih lavovima. 00:19:28.600 --> 00:19:33.570 Dakle, zaista ovdje imamo dva različita prigovora utilitarizmu. 00:19:33.570 --> 00:19:35.030 Jedan se odnosi na primjereno poštovanje ljudskih prava odnosno prava manjina. 00:19:42.500 --> 00:19:45.150 A drugi se odnosi na cijelu ideju objedinjavanja korisnosti ili preferencija ili vrijednosti. 00:19:53.070 --> 00:19:56.470 Da li je moguće objediniti sve vrijednosti i prevesti ih u dolarsku vrijednost? 00:20:00.360 --> 00:20:02.479 1930.-ih bio je jedan psiholog koji pokušao govoriti o drugom pitanju, 00:20:12.370 --> 00:20:15.850 pokušao je dokazati ono što utilitarizam pretpostavlja, 00:20:18.530 --> 00:20:22.040 da je zaista moguće prevesti sve robe, sve vrijednosti, 00:20:22.040 --> 00:20:23.230 sve do čega je ljudima stalo, 00:20:27.309 --> 00:20:28.908 u jedinstvenu uniformnu mjeru, 00:20:28.909 --> 00:20:30.230 a to je učinio tako da je proveo anketu među mladim primateljima socijalne pomoći. 00:20:32.660 --> 00:20:37.610 To je bilo 1930. -te. 00:20:37.610 --> 00:20:42.000 Dao im je listu neugodnih doživljaja 00:20:42.000 --> 00:20:45.360 i pitao ih, 'Koliko bi trebali biti plaćeni da pristanete proživjeti ove stvari?' 00:20:45.360 --> 00:20:49.899 I vodio je bilješke. 00:20:49.900 --> 00:20:51.040 Na primjer, 'Koliko biste morali biti plaćeni da pristanete na vađenje prednjeg gornjeg zuba?' 00:20:57.240 --> 00:21:04.240 ili 'Koliko bi trebali biti plaćeni da pristanete da vam se odsječe jedan mali nožni prst?' 00:21:05.030 --> 00:21:11.649 ili ' da jedete žive gliste od 20 cm' 00:21:11.650 --> 00:21:18.650 ili 'da ostatak života proživite na farmi u Kansasu' 00:21:19.430 --> 00:21:24.480 ili 'da golim rukama zadavite mačku lutalicu'? 00:21:26.140 --> 00:21:32.900 Što mislite, koja je bila najskuplja stavka na toj listi? 00:21:32.900 --> 00:21:39.750 Kansas? 00:21:39.750 --> 00:21:44.840 U pravu ste, bio je to Kansas. 00:21:44.840 --> 00:21:46.059 Za Kansas ljudi su rekli da bi morali biti plaćeni 300.000 dolara. 00:21:57.340 --> 00:21:59.800 Što mislite koja je bila sljedeća najskuplja stavka? 00:22:03.140 --> 00:22:06.010 Nije mačka, 00:22:06.010 --> 00:22:08.190 nije zub, 00:22:08.190 --> 00:22:11.250 nije nožni prst, 00:22:11.250 --> 00:22:16.580 glista! 00:22:16.580 --> 00:22:20.600 Ljudi su rekli da bi im trebali platiti sto tisuća dolara da pojedu glistu! 00:22:23.420 --> 00:22:28.010 Što mislite da je bila najmanje skupa stavka? 00:22:28.010 --> 00:22:30.010 Nije mačka, 00:22:30.010 --> 00:22:31.300 zub! 00:22:31.300 --> 00:22:34.990 U vrijeme depresije ljudi su bili voljni da im se izvadi zub za samo 4.500 dolara. 00:22:42.020 --> 00:22:45.010 Evo što je Thorndike zaključio iz svog istraživanja: 00:22:48.460 --> 00:22:51.650 svaka želja ili užitak koji postoje, postoje u nekoj količini i stoga su mjerljivi. 00:22:54.600 --> 00:22:55.949 Život psa ili mačke ili kokoši 00:22:57.010 --> 00:22:59.430 sastoji se od 00:22:59.430 --> 00:23:00.979 gladi, žudnji, želja i zadovoljenja. 00:23:04.290 --> 00:23:05.750 Isto vrijedi za život ljudskih bića, iako su apetiti i želje kompliciraniji. 00:23:12.450 --> 00:23:14.330 Ali što je s Thorndikeovom studijom? 00:23:15.990 --> 00:23:17.870 Podržava li ona Benthamovu ideju 00:23:20.210 --> 00:23:22.130 da sva dobra, sve vrijednosti 00:23:22.130 --> 00:23:28.390 mogu biti obuhvaćeni jednom uniformnom mjerom vrijednosti 00:23:28.390 --> 00:23:34.289 ili besmislenost stavki na listi 00:23:34.289 --> 00:23:37.220 sugerira suprotni zaključak 00:23:37.220 --> 00:23:40.290 da možda - bez obzira govorimo li o životu ili Kanzasu ili glisti - 00:23:44.180 --> 00:23:45.440 možda stvari koje su nam vrijedne i važne 00:23:49.400 --> 00:23:51.350 ne mogu biti obuhvaćene jednom uniformnom mjerom vrijednosti. 00:23:54.280 --> 00:23:56.129 A ako ne mogu, koje su posljedice za utilitarističku teoriju morala? 00:24:02.180 --> 00:24:09.180 To je pitanje kojim ćemo nastaviti drugi puta. 00:24:13.179 --> 00:24:15.530 Uzmimo sada drugi dio glasova. 00:24:15.530 --> 00:24:17.680 KAKO MJERITI UGODU 00:24:17.680 --> 00:24:19.309 Koji je doživljaj najvećeg užitka? 00:24:23.410 --> 00:24:25.659 Koliko vas kaže Shakespeare? 00:24:31.720 --> 00:24:38.120 Koliko vas kaže Fear Factor (Faktor straha serija)? 00:24:38.120 --> 00:24:39.760 Ne, nemoguće da ste ozbiljni, zaista? 00:24:48.530 --> 00:24:53.510 Prošli puta počeli smo razmatrati neke prigovore 00:24:53.510 --> 00:24:56.570 na verziju utilitarizma Jeremy Benthama. 00:25:01.790 --> 00:25:04.950 U raspravi koju smo vodili ljudi su iznijeli dva prigovora. 00:25:08.380 --> 00:25:10.600 Prvi prigovor, tvrdnja je bila 00:25:12.710 --> 00:25:14.760 da utilitarizam baveći se 'najvećim dobrom za najveći broj' 00:25:20.110 --> 00:25:23.120 propušta adekvatno poštovati prava pojedinca. 00:25:25.480 --> 00:25:28.880 Danas imamo debate o mučenju i terorizmu. 00:25:33.610 --> 00:25:35.139 Pretpostavimo da je osumnjičeni terorist uhićen 10. rujna 00:25:41.350 --> 00:25:44.189 i imate razloga vjerovati da je osumnjičeni 00:25:44.190 --> 00:25:46.490 imao ključne informacije o predstojećem terorističkom napadu 00:25:46.490 --> 00:25:51.230 u kojem će poginuti preko 3000 ljudi. 00:25:52.200 --> 00:25:55.690 I ne može izvući informacije iz njega? 00:25:55.690 --> 00:25:57.670 Da li bi bilo pravedno mučiti osumnjičenika 00:26:01.070 --> 00:26:03.060 kako bi se dobile informacije? 00:26:03.060 --> 00:26:05.550 Ili 00:26:05.550 --> 00:26:07.770 Ili kažete - Ne - postoji kategorična moralna obaveza poštovanja prava pojedinca 00:26:14.550 --> 00:26:17.899 Na neki način vratili smo se na pitanje s kojim smo počeli, 00:26:17.900 --> 00:26:23.910 o tramvaju i transplantaciji organ. To je prvo sporno pitanje. 00:26:23.910 --> 00:26:29.250 I sjećate se da smo razmatrali neke primjere analize troškova i koristi. 00:26:29.250 --> 00:26:33.870 Ali mnogo ljudi nije bilo zadovoljno s analizom troškova i koristi 00:26:33.870 --> 00:26:39.969 kad se radilo o pridjeljivanju dolarske vrijednosti ljudskom životu. 00:26:39.970 --> 00:26:42.290 I to nas je dovelo do drugog prigovora 00:26:44.500 --> 00:26:48.810 koji je doveo u pitanje mogućnost prevođenja svih vrijednosti 00:26:48.810 --> 00:26:52.879 na jednu uniformnu mjeru vrijednosti. 00:26:52.880 --> 00:26:57.580 Drugim riječima, pitanje je jesu li sve vrijednosti sumjerljive. 00:26:57.580 --> 00:27:00.080 Da vam dam još jedan primjer, ustvari istinitu priču iz osobnog iskustva, 00:27:07.240 --> 00:27:12.900 koja barem postavlja pitanje mogu se sve vrijednosti prevesti bez gubitka 00:27:14.060 --> 00:27:20.158 u utilitaritarističke termine. 00:27:20.159 --> 00:27:22.390 Prije nekoliko godina 00:27:22.390 --> 00:27:28.080 kad sam bio na diplomskom studiju na Oxfordu u Engleskoj, 00:27:28.080 --> 00:27:29.800 i postojali su muški i ženski fakulteti, još nisu bili pomiješani. 00:27:29.800 --> 00:27:31.428 I ženski fakulteti imali su pravila zabrane noćnih posjeta za muške goste. 00:27:37.470 --> 00:27:40.080 U 1970.-ima ta su se pravila rijetko provodila i često kršila 00:27:44.030 --> 00:27:51.030 ili mi je tako bilo rečeno. 00:27:51.600 --> 00:27:56.549 Kasnih sedamdesetih, kad sam ja bio tamo, porastao je pritisak za ublažavanje tih pravila 00:27:56.549 --> 00:28:01.100 i to postalo predmet diskusije na St. Anne College, 00:28:01.100 --> 00:28:03.840 koji je bio jedan od tih fakulteta samo za žene. 00:28:03.840 --> 00:28:06.629 Starije žene na fakultetu bile su tradicionalisti, 00:28:06.630 --> 00:28:10.720 protivile su se promjeni na konvencionalnim moralnim osnovama. 00:28:12.820 --> 00:28:14.320 No, vremena su se promijenila i bilo im je neugodno 00:28:17.110 --> 00:28:20.000 iznijeti pravu osnovu njihovih prigovora. 00:28:20.000 --> 00:28:22.809 I zato su svoje argumente prevele u utilitarističke termine. 00:28:26.120 --> 00:28:27.419 Ako muškarci ostaju preko noći, tvrdile su, povećat će se troškovi fakulteta. 00:28:31.680 --> 00:28:33.490 Kako, možda se pitate? 00:28:33.490 --> 00:28:39.429 Pa, poželjet će se okupati i potrošit će našu toplu vodu, rekle su. 00:28:39.429 --> 00:28:40.779 Nadalje, tvrdile su, morat ćemo češće mijenjati madrace. 00:28:46.780 --> 00:28:48.379 Reformatori su udovoljili tim zahtjevima prihvaćajući sljedeće kompromise: 00:28:48.380 --> 00:28:52.250 svaka žena može imati do tri noćna gosta tjedno 00:29:01.160 --> 00:29:05.940 - nisu rekli da li to mora biti ista osoba ili tri različite - 00:29:05.940 --> 00:29:06.800 uz uvjet, i u tome je bio kompromis, uz uvjet 00:29:09.240 --> 00:29:10.400 gost je plaćao 50 pensa da namiri trošak fakulteta. 00:29:15.340 --> 00:29:17.179 Sljedeći dan pojavio se naslov u nacionalnim novinama: 00:29:17.180 --> 00:29:23.080 'Djevojke na St Anne, 50 pensa za noć'! 00:29:29.500 --> 00:29:31.040 Još jedna ilustracija teškoće prevođenja svih vrijednosti, 00:29:36.150 --> 00:29:38.930 - u ovom slučaju određene ideje vrline - 00:29:38.930 --> 00:29:44.200 u utilitarističke termine. 00:29:44.200 --> 00:29:46.980 Dakle, ovo je kao ilustracija drugog prigovora utilitarizmu, 00:29:48.830 --> 00:29:52.679 bar onog dijela tog prigovora koji dovodi u pitanje 00:29:54.780 --> 00:29:56.620 ispravnost utilitarizma u stajalištu 00:29:56.620 --> 00:29:58.809 da možemo prihvatiti uniformnost vrijednosti, sumjerljivost svih vrijednosti, 00:30:02.420 --> 00:30:08.230 i prevesti sva moralna razmatranja u dolare odnosno novac. 00:30:12.220 --> 00:30:14.510 No postoji i drugi aspekt brige u vezi agregiranja vrijednosti i preferencija. 00:30:19.690 --> 00:30:21.990 Zašto bismo trebali odvagnuti sve preferencije koje ljudi imaju 00:30:27.390 --> 00:30:32.650 bez procjenjivanja jesu li te preferencije dobre ili loše? 00:30:32.650 --> 00:30:35.120 Ne bismo li trebali razlikovati više i niže užitke? 00:30:41.760 --> 00:30:44.250 Dio sklonosti da ne radimo kvalitatine razlike između vrijednosti preferencija ljudi, 00:30:49.380 --> 00:30:50.820 djelomično smo tome skloni zato jer je to neosuđujuće i egalitaristički. 00:30:55.250 --> 00:30:58.110 Benthamski utilitarista kaže: 00:30:58.110 --> 00:31:01.199 Svačije preferencije se računaju bez obzira na to što ljudi žele, 00:31:04.890 --> 00:31:08.580 bez obzira na to što veseli različite ljude. 00:31:08.580 --> 00:31:09.530 Za Benthama, važno je jedino, sjetit ćete se, 00:31:09.530 --> 00:31:11.250 intenzitet ili trajanje zadovoljstva ili boli. 00:31:18.270 --> 00:31:24.040 Takozvana viša zadovoljstva ili plemenite vrline su jednostavno one, prema Benthamu, 00:31:24.040 --> 00:31:25.420 koje proizvode jače, duže zadovoljstvo. 00:31:29.380 --> 00:31:32.790 Čuvena fraza za iskazivanje te ideje je 00:31:32.790 --> 00:31:35.770 'količina zadovoljstva je jednaka, radi li se o pribadači ili poeziji'. 00:31:39.519 --> 00:31:41.789 Što je bila 'pribadača'? 00:31:41.789 --> 00:31:46.929 Bila je to neka vrsta dječje igre, 'igra pribadača dobra je koliko i poezija', 00:31:46.929 --> 00:31:48.850 rekao je Bentham. 00:31:48.850 --> 00:31:50.509 A, mislim da ispod te ideje leži tvrdnja, slutnja, 00:31:54.090 --> 00:31:55.870 da je oholo prosuđivati čija su zadovoljstva intrinzično viša ili vrednija ili bolja. 00:32:03.850 --> 00:32:07.010 I ima nešto privlačno u tom odbijanju da se prosuđuje, 00:32:07.010 --> 00:32:09.770 na koncu neki ljudi vole Mozarta, drugi Madonnu, 00:32:12.520 --> 00:32:15.090 neki ljudi vole balet, drugi kuglanje. 00:32:17.360 --> 00:32:19.439 Tko kaže, mogao bi tvrditi Bentham, 00:32:19.440 --> 00:32:23.140 tko će reći koja od zadovoljstava, 00:32:23.140 --> 00:32:24.260 čija zadovoljstva su viša, vrednija, plemenitija od drugih? 00:32:31.570 --> 00:32:35.980 Ali, je lli to ispravno? 00:32:35.980 --> 00:32:40.310 To odbijanje da radimo kvalitativne razlike. 00:32:40.310 --> 00:32:42.179 Možemo li se mi, svi zajedno, odreći ideje 00:32:45.170 --> 00:32:49.010 da su određene stvari koje nam čine zadovoljstvo bolje ili vrednije od drugih? 00:32:53.890 --> 00:32:58.640 Sjetite se Rimljana u koloseumu, jedna stvar koja je u tome ljude smetala 00:32:58.960 --> 00:33:01.170 bilo je da su se time izgleda kršila prava kršćana. 00:33:04.490 --> 00:33:07.250 Druga zamjerka onome što se tu događa 00:33:07.250 --> 00:33:10.720 je uživanje Rimljana u tom krvavom spektaklu. 00:33:13.480 --> 00:33:15.850 Treba li to zadovoljstvo, koje je sramotno i na neki način korumpirano, 00:33:19.130 --> 00:33:22.730 ponižavajuće zadovoljstvo. 00:33:22.730 --> 00:33:26.960 Treba li to uopće biti valorizirano odnosno vagano pri odlučivanju 00:33:26.960 --> 00:33:33.770 o tome što je opće dobro? 00:33:33.770 --> 00:33:38.760 Dakle, ovo su prigovori na Benthamov uitlitarizam, 00:33:38.760 --> 00:33:42.800 a sada se okrećemo nekome tko je pokušao odgovoriti na te prigovore, 00:33:45.890 --> 00:33:47.820 mlađi utilitarista, John Stuart Mill. 00:33:50.120 --> 00:33:52.780 Ono što sada trebamo ispitati 00:33:54.510 --> 00:33:58.809 je da li John Stuart Mill ima uvjerljivi odgovor na ove prigovore utilitarizmu. 00:34:05.090 --> 00:34:06.750 John Stuart Mill je rođen 1806., njegov otac, James Mill bio je Benthamov učenik 00:34:14.079 --> 00:34:17.389 i James Mill se odlučio svom sinu, Johnu Stuartu Millu, dati primjereno obrazovanje. 00:34:20.329 --> 00:34:22.429 On je bio čudo od djeteta, John Stuart Mill, 00:34:23.569 --> 00:34:27.859 znao je grčki s tri godine, latinski s osam, 00:34:27.859 --> 00:34:29.139 a u dobi od 10 godina napisao je Povijest rimskog prava. 00:34:33.659 --> 00:34:35.649 U dobi od 20 godina doživio je živčani slom, 00:34:35.649 --> 00:34:39.129 to ga je bacilo u depresiju pet godina, 00:34:39.129 --> 00:34:43.549 ali sa 25, ono što mu je pomoglo da se izvuče iz te depresije 00:34:46.800 --> 00:34:49.949 je susret s Harriet Taylor. 00:34:49.949 --> 00:34:52.659 Ona Mill su se oženili i živjeli sretno do kraja života 00:34:52.659 --> 00:34:54.849 i bilo je to pod njenim utjecajem 00:34:56.659 --> 00:34:59.859 da je John Stuart Mill pokušao humanizirati utilitarizam. 00:35:01.720 --> 00:35:05.279 Ono što je Mill pokušao je ustanoviti 00:35:05.279 --> 00:35:07.710 da li utilitarističko računanje može biti prošireno i modificirano 00:35:11.200 --> 00:35:13.759 kako bi zadovoljilo humanitarne dvojbe poput: 00:35:17.429 --> 00:35:20.390 brige za poštovanje ljudskih prava 00:35:20.390 --> 00:35:24.598 i također razlike između viših i nižih zadovoljstava. 00:35:26.439 --> 00:35:30.368 1859. Mill je napisao čuvenu knjigu 'O slobodi', 00:35:30.369 --> 00:35:35.399 čija je glavna tema važnost obrane prava pojedinca i prava manjina, 00:35:36.380 --> 00:35:38.329 a 1861. pred kraj života 00:35:40.339 --> 00:35:43.130 napisao jee knjigu koju čitamo u okviru ovog kolegija 00:35:43.130 --> 00:35:45.099 'Utilitarizam'. 00:35:45.099 --> 00:35:46.599 U njoj pojašnjava da je korisnost jedino mjerilo moralnosti, po njemu. 00:35:50.769 --> 00:35:52.549 Dakle, on ne dovodi u pitanje Benthamovu premisu, 00:35:53.949 --> 00:35:55.279 on je potvrđuje. 00:35:55.279 --> 00:35:58.829 On vrlo izričito kaže, 'Jedini dokaz da je moguće prozvesti da je sve poželjno, 00:35:58.829 --> 00:36:04.659 je taj da ljudi to zaista žele.' 00:36:05.929 --> 00:36:11.679 Dakle, on ostaje kod ideje da su de facto empirijske želje jedini temelj za moralnu prosudbu. 00:36:15.619 --> 00:36:17.549 Ali onda - strana 8 također u poglavlju 2 - 00:36:18.979 --> 00:36:24.879 on tvrdi da je utilitaristi moguće razlikovati viša od nižih zadovoljstava. 00:36:26.320 --> 00:36:28.970 Vi koji ste već čitali Milla, 00:36:32.079 --> 00:36:33.329 kako je po njemu moguće utvrditi tu razliku? 00:36:36.559 --> 00:36:40.079 Kako utilitarista može kvalitativno razlikovati viša zadovoljstva od nižih, 00:36:42.819 --> 00:36:43.540 sramotnih, nevrijednih? 00:36:48.859 --> 00:36:50.519 Ako ste probali oba, prirodno ćete dati prednost onom višem, uvijek. 00:36:55.309 --> 00:36:59.819 Sjajno, to je točno. Kako se zovete? 00:36:59.819 --> 00:37:01.759 John. 00:37:01.759 --> 00:37:05.019 Pa, kako ističe John, Mills kaže, 00:37:05.019 --> 00:37:07.868 'Evo testa, budući da ne možemo iskoračiti izvan stvarnih želja i preferenci, 00:37:10.490 --> 00:37:11.649 to bi narušilo utilitarističke pemise, 00:37:13.670 --> 00:37:16.819 jedini test 00:37:16.819 --> 00:37:17.600 da li je zadovoljstvo više ili niže razine, 00:37:19.769 --> 00:37:26.468 je da li bi mu netko tko je doživio oba, dao prednost. 00:37:28.109 --> 00:37:29.369 A ovdje, u poglavlju 2, vidimo odlomak u kojem Mill govori ono što je John opisao. 00:37:37.199 --> 00:37:42.680 'Od dva zadovoljstva, ako postoji jedno kojem bi svi, ili skoro svi, koji su doživjeli oba, 00:37:42.680 --> 00:37:46.219 dali odlučujuću prednost, 00:37:46.219 --> 00:37:51.859 bez obzira na bilo kakav osjećaj moralne obaveze da ga preferiraju, 00:37:51.859 --> 00:37:53.390 drugim riječima bez ikakvog vanjskog, nezavisnog mjerila, 00:37:53.390 --> 00:37:57.529 onda je to poželjnije zadovoljstvo.' 00:37:57.529 --> 00:37:59.829 Što ljudi misle o tom argumentu? 00:38:01.549 --> 00:38:03.489 Da li je dobar? 00:38:03.489 --> 00:38:06.380 Koliko vas misli da je uspješan 00:38:06.380 --> 00:38:11.489 za diskusiju o razlikovanju između viših i nižih zadovoljstava u terminima utilitarizma? 00:38:11.489 --> 00:38:12.390 Koliko vas misli da nije dobar? 00:38:17.789 --> 00:38:20.829 Želim čuti vaše razloge, 00:38:20.829 --> 00:38:22.249 ali prije no što izložimo razloge, napravit ćemo jedan pokus 00:38:26.329 --> 00:38:28.719 u vezi Millsove tvrdnje. 00:38:31.569 --> 00:38:35.199 Da bismo mogli napraviti taj pokus 00:38:35.199 --> 00:38:39.859 pogledat ćemo tri kratka isječka popularne zabave. 00:38:44.889 --> 00:38:48.170 Prvi je Hamletov monolog 00:38:48.170 --> 00:38:52.939 iza kojeg slijede dva druga doživljaja. 00:38:55.420 --> 00:38:58.259 Da vidimo što vi mislite. 00:38:58.259 --> 00:39:02.249 'Kakvo je remek-djelo čovjek! 00:39:02.249 --> 00:39:05.509 Kako plemenit umom! 00:39:05.509 --> 00:39:07.579 Kako neograničen u sposobnostima! 00:39:07.579 --> 00:39:11.439 U liku i pokretu kako je izražajan i divan! 00:39:11.439 --> 00:39:14.949 U djelima kako sličan anđelu, u mislima kako sličan Bogu! 00:39:14.949 --> 00:39:16.430 Ljepota svijeta, uzor svim životinjama! 00:39:18.349 --> 00:39:21.259 Pa ipak, što je za mene ta kvintesencija prašine? 00:39:24.689 --> 00:39:31.689 Čovjek mene ne očarava.' 00:39:43.309 --> 00:39:47.749 'Zamislite svijet u kojem vaši najveći strahovi postaju stvarnost. 00:39:47.749 --> 00:39:52.609 Svaki show, šest natjecatelja iz cijele zemlje bore se međusobno u tri ekstremne egzibicije. 00:39:52.609 --> 00:39:59.609 Te egzibicije smišljene su kao izazovi za natjecatelje, fizički i mentalno. 00:40:00.419 --> 00:40:02.288 Šest natjecatelja, tri egzibicije, jedan pobjednik. 00:40:02.289 --> 00:40:09.289 Fear Factor. 00:40:16.449 --> 00:40:22.919 Simpsoni. 00:40:22.919 --> 00:40:25.240 Flanders, otkad ti voliš kul stvari? 00:40:25.240 --> 00:40:28.729 Pa, nije mi do brzine, ali obožavam tu zaštitnu opremu, kacige, zaštitne šipke, zastavice. 00:40:28.729 --> 00:40:35.499 Ja volim friški zrak i gledati jadnike na terenu. 00:40:35.499 --> 00:40:41.319 Dang Cletus, zašto si morao parkirati pokraj mojih roditelja? 00:40:41.320 --> 00:40:43.029 Ne draga, to su i moji roditelji. 00:40:55.759 --> 00:41:00.629 Ne moram ni pitati koji vam se najviše sviđao. 00:41:00.629 --> 00:41:05.109 Simpsoni? Kome su se najviše sviđali Simpsoni? 00:41:05.109 --> 00:41:10.140 Kome Shakespeare? 00:41:10.140 --> 00:41:12.710 A Fear Factor? 00:41:12.710 --> 00:41:15.959 Koliko vas više voli Fear Factor? 00:41:15.959 --> 00:41:22.368 Stvarno? 00:41:22.369 --> 00:41:24.079 Nadmoćnoj većini sviđaju se Simpsoni 00:41:25.769 --> 00:41:29.229 više od Shakespearea. 00:41:29.229 --> 00:41:31.598 U redu, uzmimo sad drugi dio glasova. 00:41:33.749 --> 00:41:35.799 Koji doživljaj odnosno užitak je najviši? 00:41:39.409 --> 00:41:41.729 Koliko ih kaže Shakespeare? 00:41:47.789 --> 00:41:49.960 Koliko ih kaže Fear Factor? 00:41:54.189 --> 00:41:59.069 Ne, vi se šalite. Ozbiljno? 00:42:01.039 --> 00:42:02.709 Samo naprijed, recite. 00:42:02.709 --> 00:42:03.439 Ja mislim da je to najzabavnije. 00:42:04.709 --> 00:42:09.428 Znam, ali koji doživljaj je za vas najvredniji, najplemenitiji. 00:42:09.429 --> 00:42:10.920 Znam da vam je to najzabavnije. 00:42:10.920 --> 00:42:15.920 Ako je nešto dobro samo zato što je ugodno, zašto je važno da imate neku apstraktnu ideju 00:42:15.920 --> 00:42:17.209 je li to dobro po mjerilima nekog drugog? 00:42:21.729 --> 00:42:25.038 Znači vi stajete na stranu Benthama: 00:42:25.039 --> 00:42:26.429 tko je taj koji će prosuditi 00:42:26.429 --> 00:42:29.279 i zašto bi morali prosuđivati? 00:42:29.279 --> 00:42:33.880 Umjesto da samo registriramo i pribrojimo de facto preferencije. U redu, pošteno. 00:42:33.880 --> 00:42:35.349 Kako se vi zovete? 00:42:35.349 --> 00:42:37.329 Nate? U redu, pošteno. 00:42:38.219 --> 00:42:40.919 Koliko vas misli da su Simpsoni ustvari, osim što vam se sviđaju, 00:42:40.919 --> 00:42:46.259 da su ustvari doživljaj više razine od Shakespearea? 00:42:47.420 --> 00:42:49.309 Da vidiomo ponovo tko je glasao za Shakespearea. 00:42:49.309 --> 00:42:52.869 Koliko vas misli da je Shakespeare viši? 00:42:55.540 --> 00:42:58.999 Idealno bi bilo da čujem nekoga ... ima li koga tko misli da je Shakespeare najviši, 00:43:02.109 --> 00:43:02.989 ali radije gleda Simpsone? 00:43:08.739 --> 00:43:14.160 Samo sjediti i gledati Simpsone je zabavno jer se šale i nasmijavaju nas, 00:43:14.160 --> 00:43:17.839 ali netko nam mora reći da je Shakespeare veliki pisac, 00:43:17.839 --> 00:43:20.630 moramo naučiti kako ga čitati i kako ga razumijeti, 00:43:20.630 --> 00:43:23.150 moramo naučiti kako gledati Rembrandta, kako analizirati sliku. 00:43:23.150 --> 00:43:25.859 Kako se vi zovete? 00:43:25.859 --> 00:43:27.840 Aneesha. 00:43:27.840 --> 00:43:31.259 Aneesha, kad kažete da vam je netko rekao da je Shakespeare bolji, 00:43:31.259 --> 00:43:37.299 da li to prihvaćate slijepom vjerom? 00:43:37.299 --> 00:43:41.529 Glasali ste da je Shakespeare bolji samo zato jer vam to govori kultura ili učitelji? 00:43:41.529 --> 00:43:44.049 Ili se zaista sami slažete s tim? 00:43:44.049 --> 00:43:48.319 U odnosu na Shakesperea, ne, ali ranije ste dali primjer Rembrandta 00:43:49.740 --> 00:43:54.479 i mislim da bih više uživala čitajući strip 00:43:54.479 --> 00:43:58.348 nego što bih uživala analizirajući Rembrandta zato jer mi je netko rekao da je veliki slikar. 00:43:58.349 --> 00:44:01.699 Dakle vi sugerirate da bi nešto od toga bilo kulturna konvencija i pritisak. 00:44:01.699 --> 00:44:05.319 Rečeno nam je koje knjige, koja umjetnička djela su velika. 00:44:05.319 --> 00:44:12.319 Tko još? 00:44:15.309 --> 00:44:19.640 Iako sam više uživao gledajući Simpsone, ovaj tren na predavanju, 00:44:19.640 --> 00:44:23.049 kad bih morao ostatak svog života provesti s jednim od tri prikazana videa, 00:44:26.869 --> 00:44:29.119 ne bih želio provesti taj ostatak svog života gledajući zadnja dva videa. 00:44:33.800 --> 00:44:36.650 Mislim da bih više užitka našao u tome da budem u stanju 00:44:38.309 --> 00:44:39.269 razvijati se u vlastitom umu 00:44:39.269 --> 00:44:40.488 baveći se dubljim užicima, dubljim mislima. 00:44:44.869 --> 00:44:48.630 Recite mi vaše ime. 00:44:48.630 --> 00:44:49.630 Joe. 00:44:49.630 --> 00:44:52.559 Joe, dakle kad morali ostatak života provesti 00:44:52.559 --> 00:44:55.409 na farmi u Kansasu samo sa Shakespearom ili zbirkom epizoda Simpsona, 00:45:02.079 --> 00:45:04.119 vi bi radije odabrali Shakespearea? 00:45:06.599 --> 00:45:09.849 Što iz toga zaključujete o testu John Stuart Millsa? 00:45:12.149 --> 00:45:15.078 Da test višeg zadovoljstva pokazuje 00:45:15.079 --> 00:45:16.359 da li ljudi koji su doživjeli oba preferiraju dotično. 00:45:21.509 --> 00:45:23.880 Mogu li ukratko citirati drugi primjer? 00:45:23.880 --> 00:45:25.130 Na neurobiologiji prošle godine pričali su nam o pokusu sa štakorom 00:45:28.769 --> 00:45:31.209 gdje je štakor mogao stimulirati određeni centar u svom mozgu 00:45:31.209 --> 00:45:35.879 tako da doživljava intenzivno zadooljstvo. 00:45:35.879 --> 00:45:38.368 Štakor nije jeo ni pio sve dok nije umro. 00:45:38.369 --> 00:45:42.179 Štakor je očito doživljavao intenzivno zadovoljstvo. 00:45:42.179 --> 00:45:46.269 Pa sada, da me ovaj čas upitate da li bih radije doživio intenzivno zadovoljstvo 00:45:47.140 --> 00:45:52.690 ili cijeli život ispunjen višim zadovoljstvom, 00:45:52.690 --> 00:45:55.799 - intenzivno zadovoljstvo pritom smatram nižim zadovoljstvom - 00:45:55.799 --> 00:46:01.969 rado bih ovaj čas uživao u intenzivnom zadovoljstvu - da, sigurno bi - 00:46:01.969 --> 00:46:03.159 ali tokom cijelog života, mislim da bi se većina ovdje složila 00:46:06.899 --> 00:46:11.630 da bi radije bili ljudi s višim zadovoljstvom, nego taj štakor s intenzivnim zadovoljstvom 00:46:11.630 --> 00:46:13.269 u vrlo kratkom vremenskom periodu. 00:46:15.870 --> 00:46:18.959 A odgovarajući na vaše pitanje, to dokazuje da ... 00:46:18.959 --> 00:46:21.348 neću reći dokazuje, 00:46:21.349 --> 00:46:24.999 mislim da je zaključak da Millsova teorija da ako se pita ljude što bi više voljeli, 00:46:31.439 --> 00:46:33.118 većina će odgovoriti da bi radije doživljavali više zadovoljstvo. 00:46:33.119 --> 00:46:34.689 Dakle, vi mislite da to podržava ... mislite da je Mills ovdje u pravu? 00:46:39.499 --> 00:46:40.738 Da, mislim. 00:46:40.739 --> 00:46:42.629 Ima li koga tko se ne slaže s Joeom, 00:46:42.629 --> 00:46:46.839 tko misli da naš eksperiment opovrgava Millsov test? 00:46:51.099 --> 00:46:53.239 Pokazuje da to nije adekvatan način, 00:46:53.239 --> 00:46:57.689 da ne možete raspoznati viša zadovoljstva u okvirima utilitarizma. 00:47:05.879 --> 00:47:09.509 Ako je uistinu dobro što god ljudi preferiraju, 00:47:09.509 --> 00:47:11.519 onda je to uistinu relativno i ne postoji objektivna definicija. 00:47:11.519 --> 00:47:14.888 U nekim društvima ljudi će preferirati Simpsone. 00:47:15.849 --> 00:47:21.380 Svatko može uživati u Simpsonima, 00:47:21.380 --> 00:47:25.660 ali mislim da je nužna edukacija da se uživa u Shakespeareu. 00:47:25.660 --> 00:47:27.319 Vi kažete da je potrebna edukacija za uživanje u višim stvarima. 00:47:27.319 --> 00:47:29.719 Millsov stav je da viša zadovoljstva zaista zahtijevaju kultivaciju i edukaciju. 00:47:35.090 --> 00:47:37.799 On to ne osporava. 00:47:38.650 --> 00:47:41.660 Ali jednom kad su kultivirani i educirani ljudi će uvidjeti, 00:47:41.660 --> 00:47:44.029 ne samo da će uvidjeti razliku između viših i nižih zadovoljstava, 00:47:49.009 --> 00:47:51.539 nego će zapravo preferirati viša pred nižima. 00:47:55.849 --> 00:47:59.519 Naći ćete taj čuveni citat John Stuart Millsa: 00:47:59.519 --> 00:48:00.808 'Bolje je biti nezadovoljno ljudsko biće, nego zadovoljna svinja.' 00:48:03.869 --> 00:48:06.109 Bolje nezadovoljni Sokrat, nego zadovoljna budala. 00:48:10.539 --> 00:48:12.229 A ako budala i svinja različito misle, to je zato jer znaju samo svoju stranu pitanja.' 00:48:20.700 --> 00:48:22.339 Dakle, tu imate pokušaj razlikovanja viših od nižih zadovoljstava, 00:48:28.719 --> 00:48:33.169 odnosno između posjeta muzeju i gledanja televizije uz bocu piva kod kuće. 00:48:35.489 --> 00:48:37.950 Mill dopušta da ponekad možda podliježemo iskušenju 00:48:37.950 --> 00:48:40.839 da radimo ovo zadnje, budemo TV ovisnici, 00:48:46.309 --> 00:48:47.779 ali čak i kad to radimo iz nemara i lijenosti, i 00:48:50.680 --> 00:48:52.200 mi znamo da zadovoljstvo koje osjećamo zureći u Rembrandta u muzeju 00:48:52.200 --> 00:48:54.029 ustvari je više 00:49:00.219 --> 00:49:03.190 zato jer smo doživjeli oba. 00:49:03.190 --> 00:49:05.699 A to i jeste više zadovoljstvo, zurenje u Rembrandte, 00:49:06.940 --> 00:49:11.499 zato jer zaokuplja naše više ljudske sposobnosti. 00:49:11.499 --> 00:49:13.848 Što je s Millsovim pokušajem da odgovori na prigovor o pravima pojedinca? 00:49:18.890 --> 00:49:21.859 Na neki način on koristi istu vrstu argumenta. 00:49:21.859 --> 00:49:25.319 A to je predstavljeno u poglavlju 5. 00:49:27.859 --> 00:49:33.369 On kaže: 'Iako osporavam pretenzije bilo koje teorije koja postavlja 00:49:33.369 --> 00:49:34.889 imaginarni standard pravednosti neutemeljen na korisnosti. 00:49:39.719 --> 00:49:41.389 Ali ipak, smatra da je pravednost utemeljena na korisnosti, 00:49:41.389 --> 00:49:43.429 glavni dio i neusporedivo najsvetiji i obvezujući dio svake moralnosti ...' 00:49:54.599 --> 00:49:57.249 Dakle, pravda jeste viša, individualna prava imaju prednost, 00:50:00.049 --> 00:50:01.899 ali ne iz razloga koji se razilaze sa utilitarističkim postavkama. 00:50:05.310 --> 00:50:06.769 'Pravednost je ime za određene moralne zahtjeve 00:50:06.769 --> 00:50:09.069 koji, na kolektivnoj razini, stoje visoko na skali društvene korisnosti 00:50:09.069 --> 00:50:11.220 i stoga predstavljaju mjerodavniju obavezu od bilo koje druge.' 00:50:23.200 --> 00:50:28.919 Dakle, pravednost je sveta, prvenstvena, povlaštena. 00:50:28.920 --> 00:50:30.890 To nije nešto što se može lako razmijeniti za manje vrijedne stvari, 00:50:30.890 --> 00:50:32.239 ali razlog je, u konačnici, tvrdi Mills, utilitaristički razlog 00:50:37.929 --> 00:50:39.239 Kad pogledate dugoročne interese ljudske vrste, 00:50:41.199 --> 00:50:43.539 svih nas kao progresivnih bića, 00:50:46.329 --> 00:50:47.699 ako postupamo pravedno i poštujemo prava, 00:50:51.279 --> 00:50:52.609 društvu će u cjelini biti bolje, dugoročno gledano. 00:50:55.949 --> 00:50:57.999 Je li to uvjerljivo? 00:50:57.999 --> 00:50:59.158 Ili, da li Mills ustvari, ne priznajući to, izlazi izvan utilitarističkih okvira 00:51:06.219 --> 00:51:07.789 zalažući se za kvalitativno viša zadovoljstva 00:51:12.789 --> 00:51:14.479 i za sveta, odnosno posebno važna, prava pojedinca? 00:51:18.479 --> 00:51:21.718 Mi nismo u potpunosti odgovorili na to pitanje 00:51:21.719 --> 00:51:23.809 jer da bi se odgovorilo na to pitanje, u slučaju prava i pravednosti, 00:51:26.259 --> 00:51:28.869 nužno bi bilo istražiti druge načine, neutilitarističke načine, 00:51:33.369 --> 00:51:35.030 tumačenja osnove prava 00:51:36.479 --> 00:51:38.269 i onda se zapitati da li su valjana. 00:51:40.409 --> 00:51:42.949 Što se tiče Jeremy Benthama, 00:51:42.949 --> 00:51:44.969 koji je lansirao utilitarizam kao doktrinu i moralnu i pravnu filozofiju, 00:51:49.979 --> 00:51:53.819 Bentham je umro 1832. u dobi od 85 godina, 00:51:53.819 --> 00:51:57.509 ali ako odete u London možete ga i danas posjetiti, doslovno. 00:51:58.729 --> 00:52:01.439 U svojoj oporuci pobrinuo se da njegovo tijelo bude konzervirano, 00:52:03.390 --> 00:52:05.489 balzamirano i izloženo na sveučilištu University of London 00:52:07.739 --> 00:52:11.069 gdje još uvijek vlada u staklenoj vitrini s voštanom glavom u svom stvarnom odijelu. 00:52:14.989 --> 00:52:17.049 Vidite, prije no što je umro Bentham si je postavio pitanje sukladno svojoj filozofiji, 00:52:22.339 --> 00:52:23.499 od kakve koristi bi mrtav čovjek mogao biti živima? 00:52:26.839 --> 00:52:30.499 Jedna korist, rekao je, bila bi staviti svoj leš na raspolaganje 00:52:30.499 --> 00:52:33.519 za studiranje anatomije. 00:52:33.519 --> 00:52:37.129 U slučaju velikih filozofa, međutim, 00:52:37.129 --> 00:52:38.159 jo je bolje sačuvati svoju fizičku prisutnost kao inspiraciju budućim generacijama mislilaca. 00:52:44.919 --> 00:52:47.618 Želite vidjeti kako izgleda punjeni Bentham? 00:52:47.619 --> 00:52:50.410 Ovako izgleda. 00:52:53.549 --> 00:52:55.459 Ako pogledate pažljivo, primjetit ćete 00:52:57.459 --> 00:52:58.529 da balzamiranje njegove stvarne glave nije baš uspjelo pa su je zamijenili voštanom, 00:53:06.910 --> 00:53:10.009 a na dnu radi vjerodostojnosti možete vidjeti njegovu pravu glavu na tanjuru. 00:53:16.529 --> 00:53:17.809 Vidite? 00:53:17.809 --> 00:53:22.599 Ovdje. 00:53:22.599 --> 00:53:25.709 Pa, koja je pouka priče? 00:53:25.709 --> 00:53:29.499 Pouka priče ... 00:53:29.499 --> 00:53:33.698 usput, vade ga za vrijeme zasjedanja vijeća na University College London, 00:53:33.699 --> 00:53:40.659 a u zapisniku ga bilježe kao prisutnog bez prava glasa. 00:53:40.659 --> 00:53:42.539 Ovdje je filozof u životu i smrti koji se držao principa svoje filozofije. 00:53:48.400 --> 00:53:55.400 Idući puta nastavit ćemo s pravima.