0:00:00.916,0:00:03.170 Când mă pregăteam pentru prelegere, 0:00:03.170,0:00:05.146 am căutat câteva citate 0:00:05.146,0:00:06.991 pe care să vi le împărtășesc. 0:00:06.991,0:00:09.162 Vestea bună e că am găsit trei 0:00:09.162,0:00:10.994 care mi-au plăcut în mod deosebit. 0:00:10.994,0:00:14.472 Prima, de Samuel Johnson, care spunea: 0:00:14.472,0:00:16.712 „Când faci o alegere în viață, 0:00:16.712,0:00:19.468 nu uita să trăiești.” 0:00:19.468,0:00:23.000 A doua, de Eschil, care ne reamintea că: 0:00:23.000,0:00:27.305 „fericirea este o alegere [br]care necesită efort”. 0:00:27.305,0:00:31.990 Iar a treia, de Graucho Marx, care spunea: 0:00:31.990,0:00:33.920 „Nu aș vrea să fac parte 0:00:33.920,0:00:39.252 dintr-un club[br]care m-ar accepta ca membru.” 0:00:39.252,0:00:41.528 Acum, vestea proastă este că 0:00:41.528,0:00:43.429 nu am știut pe care din aceste citate 0:00:43.429,0:00:46.178 să-l aleg să-l împărtășesc cu voi. 0:00:46.178,0:00:49.403 Anxietatea dulce a alegerii... 0:00:49.403,0:00:53.446 În vremurile de azi, [br]ale capitalismului post-industrial, 0:00:53.446,0:00:57.109 alegerile, împreună cu liberul arbitru, 0:00:57.109,0:00:59.970 și ideea de creator al propriului destin, 0:00:59.970,0:01:03.500 au fost ridicate la rang de ideal. 0:01:03.500,0:01:07.387 De asemenea, credem 0:01:07.387,0:01:10.155 și în progresul continuu. 0:01:10.155,0:01:12.911 Dar în spatele acestei ideologii 0:01:12.911,0:01:16.443 se află o creștere a anxietății, 0:01:16.443,0:01:18.513 a sentimentului de vinovăție, 0:01:18.513,0:01:22.217 a sentimentului de inadecvare, 0:01:22.217,0:01:26.954 a sentimentului că [br]nu facem alegerile potrivite. 0:01:26.954,0:01:30.950 Din păcate, ideologia aceasta [br]a liberului arbitru 0:01:30.950,0:01:36.400 ne-a împiedicat să ne gândim [br]la schimbările sociale. 0:01:36.400,0:01:39.319 Se pare ca această ideologie 0:01:39.319,0:01:42.001 a fost foarte eficientă în a ne îmbuna 0:01:42.001,0:01:44.797 ca gânditori politici și sociali. 0:01:44.797,0:01:47.113 În loc să ne angajăm în critici sociale, 0:01:47.113,0:01:50.869 ne facem tot mai mult autocritica, 0:01:50.869,0:01:55.122 uneori până la punctul de autodistrugere. 0:01:55.122,0:01:57.867 Cum se face că acea ideologie a alegerii 0:01:57.867,0:01:59.450 este încă atât de puternică, 0:01:59.450,0:02:02.546 chiar și în rândul celor 0:02:02.546,0:02:04.655 care nu au prea multe lucruri de ales? 0:02:04.655,0:02:08.229 Cum se face că și oamenii săraci 0:02:08.229,0:02:12.620 se identifică foarte mult [br]cu ideea liberului arbitru, 0:02:12.620,0:02:14.689 cu ideea rațională de alegere 0:02:14.689,0:02:17.322 pe care o îmbrățișăm? 0:02:17.322,0:02:21.340 Ideologia alegerii reușește 0:02:21.340,0:02:25.320 să ne deschidă un orizont de a ne gândi 0:02:25.320,0:02:28.987 la un viitor imaginar. 0:02:28.987,0:02:31.000 Să vă dau un exemplu. 0:02:31.000,0:02:32.913 Prietena mea Manya, 0:02:32.913,0:02:35.962 pe când studia la o universitate[br]în California, 0:02:35.962,0:02:37.660 câștiga bani 0:02:37.660,0:02:40.720 muncind la un dealer de autoturisme. 0:02:40.720,0:02:42.531 Când Manya vorbea 0:02:42.531,0:02:45.389 cu un client tipic, îl întreba 0:02:45.389,0:02:47.233 despre stilul său de viață, 0:02:47.233,0:02:49.956 cât vrea să cheltuie, 0:02:49.956,0:02:51.700 câți copii are, 0:02:51.700,0:02:53.973 la ce îi trebuie mașina? 0:02:53.973,0:02:56.660 Cei doi ajungeau la o concluzie bună 0:02:56.660,0:02:59.214 în legătură cu mașina cea mai potrivită. 0:02:59.214,0:03:02.702 Înainte de a pleca clientul spre casă 0:03:02.702,0:03:05.140 și de a cântări bine lucrurile, 0:03:05.140,0:03:06.960 Manya îi spunea clientului: 0:03:06.960,0:03:10.745 „Mașina pe care o cumpărați [br]acum e perfectă, 0:03:10.745,0:03:12.770 dar în câțiva ani, 0:03:12.770,0:03:15.403 când copiii vor pleca de acasă, 0:03:15.403,0:03:18.370 când veți avea ceva mai mulți bani, 0:03:18.370,0:03:21.399 cealaltă mașină va fi ideală. 0:03:21.399,0:03:24.936 Dar ce cumpărați acum e foarte bun.” 0:03:24.936,0:03:27.293 Majoritatea clienților lui Manya, 0:03:27.293,0:03:28.913 care se întorceau a doua zi, 0:03:28.913,0:03:31.738 cumpărau cealaltă mașină, 0:03:31.738,0:03:33.795 mașina care nu le trebuia, 0:03:33.795,0:03:36.833 mașina care costa prea mult. 0:03:36.833,0:03:39.769 Manya a avut atât de mult succes[br]cu vânzarea mașinilor, 0:03:39.769,0:03:42.671 încât, la scurt timp, [br]a început să vândă avioane. 0:03:42.671,0:03:47.265 (Râsete) 0:03:47.265,0:03:51.350 Și cunoașterea temeinică[br]a psihologiei umane 0:03:51.350,0:03:54.004 a pregătit-o bine[br]pentru slujba ei curentă: 0:03:54.004,0:03:56.755 aceea de psihoanalist. 0:03:56.755,0:04:01.278 De ce erau clienții lui Manya[br]atât de iraționali? 0:04:01.278,0:04:03.775 Succesul lui Manya a constat 0:04:03.775,0:04:07.070 în capacitatea de a deschide [br]în mințile clienților 0:04:07.070,0:04:10.280 imaginea unui viitor idealizat, 0:04:10.280,0:04:12.190 o imagine despre ei 0:04:12.190,0:04:16.420 în ipostaza de a fi [br]mai de succes, mai liberi. 0:04:16.420,0:04:18.669 Și pentru ei, alegerea celeilalte mașini 0:04:18.669,0:04:22.519 era ca și cum se apropiau de acest ideal 0:04:22.519,0:04:26.578 pe care Manya deja îl văzuse în ei. 0:04:26.578,0:04:30.981 Rareori luăm decizii perfect raționale. 0:04:30.981,0:04:34.559 Deciziile sunt influențate [br]de subconștientul nostru, 0:04:34.559,0:04:36.398 de comunitatea noastră. 0:04:36.398,0:04:38.328 Deseori alegem 0:04:38.328,0:04:41.072 ghicind ce vor gândi cei din jur 0:04:41.072,0:04:43.466 despre decizia noastră. 0:04:43.466,0:04:44.671 De asemenea, alegem 0:04:44.671,0:04:47.040 uitându-ne la ce aleg alții. 0:04:47.040,0:04:51.845 Și mai intuim și ce alegere[br]e social acceptabilă. 0:04:51.845,0:04:54.916 Din aceasta cauză, 0:04:54.916,0:04:56.805 chiar și când am ales deja, 0:04:56.805,0:04:58.560 – de exemplu am cumpărat o mașină – 0:04:58.560,0:05:01.710 continuăm să citim recenzii despre mașini, 0:05:01.710,0:05:04.070 de parcă încă vrem să ne convingem 0:05:04.070,0:05:06.671 că am făcut alegerea bună. 0:05:06.671,0:05:09.870 Deciziile provoacă anxietate. 0:05:09.870,0:05:12.951 Sunt legate de riscuri, de pierderi. 0:05:12.951,0:05:15.306 Sunt impredictibile. 0:05:15.306,0:05:17.415 Din aceasta cauză, 0:05:17.415,0:05:19.918 oamenii au din ce în ce mai multe probleme 0:05:19.918,0:05:23.376 în a lua orice decizie. 0:05:23.376,0:05:27.207 Nu de mult, eram la o recepție[br]la o nuntă 0:05:27.207,0:05:29.511 și am cunoscut o tânără frumoasă 0:05:29.511,0:05:34.137 care a început imediat să-mi povestească[br]câtă anxietate îi provoacă deciziile. 0:05:34.137,0:05:35.658 Mi-a spus: 0:05:35.658,0:05:39.154 „Mi-a trebuit o lună să-mi aleg rochia.” 0:05:39.154,0:05:41.675 Apoi a spus: „Săptămâni întregi am căutat 0:05:41.675,0:05:44.936 la ce hotel să stau pentru o noapte.” 0:05:44.936,0:05:49.434 „Iar acum trebuie să-mi aleg [br]un donator de spermă.” 0:05:49.434,0:05:52.201 (Râsete) 0:05:52.201,0:05:55.700 Am privit-o șocată pe această femeie. 0:05:55.700,0:05:58.737 „Donator de sperma? De ce atâta grabă?” 0:05:58.737,0:06:02.911 A răspuns: „Împlinesc 40 de ani[br]la sfârșitul anului, 0:06:02.911,0:06:07.736 și mi-am ales prost bărbații în viață.” 0:06:07.736,0:06:12.142 Alegerea, pentru că e legată de risc, 0:06:12.142,0:06:14.419 provoacă anxietate. 0:06:14.419,0:06:18.946 Faimosul filozof danez 0:06:18.946,0:06:19.869 Soren Kierkegaard 0:06:19.869,0:06:22.583 a evidențiat că anxietatea 0:06:22.583,0:06:25.848 e legată de posibilitatea de posibilități. 0:06:25.848,0:06:30.281 În ziua de azi credem[br]că putem preveni aceste riscuri. 0:06:30.281,0:06:33.362 Avem nesfârșite analize de piață, 0:06:33.362,0:06:35.871 proiecții ale câștigurilor viitoare. 0:06:35.871,0:06:38.571 Chiar și cu piața, care ține de șansă, 0:06:38.571,0:06:42.711 de întâmplare, [br]credem că putem prezice rațional 0:06:42.711,0:06:44.434 încotro se îndreaptă. 0:06:44.434,0:06:49.281 Aleatorul poate deveni foarte traumatic. 0:06:49.281,0:06:52.431 Anul trecut, prietenul meu[br]Bernard Harcourt 0:06:52.431,0:06:56.446 de la Universitatea din Chicago, [br]a organizat un eveniment, 0:06:56.446,0:06:59.843 o conferință despre ideea [br]de aleator, de întâmplare. 0:06:59.843,0:07:02.139 Amândoi eram în panoul conferinței, 0:07:02.139,0:07:04.446 și chiar înainte[br]de a ne prezenta articolele 0:07:04.446,0:07:06.796 – nu cunoșteam articolele unul altuia – 0:07:06.796,0:07:09.304 am hotărât să luăm aleatorul în serios. 0:07:09.304,0:07:11.140 Așa că am informat publicul 0:07:11.140,0:07:13.489 că ce vor audia în continuare 0:07:13.489,0:07:15.502 va fi un articol aleator, 0:07:15.502,0:07:17.674 un amestec de două articole 0:07:17.674,0:07:21.545 în care nu știam ce va spune celălalt. 0:07:21.545,0:07:25.725 Am ținut conferința astfel: 0:07:25.725,0:07:27.946 Bernard și-a citit primul paragraf, 0:07:27.946,0:07:30.070 eu mi-am citit primul paragraf, 0:07:30.070,0:07:32.277 Bernard și-a citit al doilea paragraf, 0:07:32.277,0:07:33.762 eu mi-am citit al doilea paragraf, 0:07:33.762,0:07:37.384 și tot așa până la finalul [br]articolelor noastre. 0:07:37.384,0:07:39.263 Veți fi surprinși să aflați 0:07:39.263,0:07:41.445 că majoritatea publicului nostru 0:07:41.445,0:07:44.188 nu a crezut că ce a audiat 0:07:44.188,0:07:47.473 a fost un articol aleator. 0:07:47.473,0:07:49.419 Nu le-a venit să creadă 0:07:49.419,0:07:51.939 că vorbind ca autorități, 0:07:51.939,0:07:53.817 ca doi profesori ce eram, 0:07:53.817,0:07:56.888 am lua aleatorul în serios. 0:07:56.888,0:07:59.475 Au crezut că am pregătit[br]articolele împreună 0:07:59.475,0:08:02.953 și că glumeam când am spus[br]că totul fusese aleator. 0:08:02.953,0:08:07.120 Trăim în vremuri cu multă informație, 0:08:07.120,0:08:08.711 cu baze mari de date, 0:08:08.711,0:08:11.715 cu multă știință despre corpul uman. 0:08:11.715,0:08:13.458 Ne-am decodat codul genetic. 0:08:13.458,0:08:16.569 Știm mai mult despre creierul uman[br]decât știam pe vremuri. 0:08:16.569,0:08:19.205 Dar, surprinzător, tot mai mult, 0:08:19.205,0:08:23.640 oamenii ignoră aceste informații. 0:08:23.640,0:08:28.633 Ignoranța și negarea sunt în creștere. 0:08:28.633,0:08:31.851 Privitor la actuala criză economică, 0:08:31.851,0:08:34.505 credem că pur și simplu ne vom trezi 0:08:34.505,0:08:36.721 și totul va fi la fel ca înainte, 0:08:36.721,0:08:39.984 și nu e nevoie de nicio schimbare[br]politică sau socială. 0:08:39.984,0:08:42.234 Privitor la criza ecologică, 0:08:42.234,0:08:45.350 credem că deocamdată[br]nu trebuie să facem nimic 0:08:45.350,0:08:48.252 sau că alții trebuie să ia [br]inițiativa înainte. 0:08:48.252,0:08:51.548 Sau chiar când[br]criza ecologică se întâmplă, 0:08:51.548,0:08:53.877 precum catastrofa de la Fukushima, 0:08:53.877,0:08:56.701 de multe ori există oameni care [br]trăiesc în același mediu, 0:08:56.701,0:08:58.523 cu aceeași cantitate de informație, 0:08:58.523,0:09:02.210 și jumătate din ei vor fi îngrijorați[br]în legătură cu radiația, 0:09:02.210,0:09:05.531 în timp ce cealaltă jumătate o vor ignora. 0:09:05.531,0:09:08.343 Psihoanaliștii știu foarte bine 0:09:08.343,0:09:10.818 că, în mod surprinzător, oamenii 0:09:10.818,0:09:12.607 nu sunt pasionați de cunoaștere, 0:09:12.607,0:09:15.689 ci de ignoranță. 0:09:15.689,0:09:17.174 Ce înseamnă asta? 0:09:17.174,0:09:20.180 Înseamnă că atunci când ne confruntăm 0:09:20.180,0:09:21.783 cu o boală ce amenință viața, 0:09:21.783,0:09:24.989 mulți oameni nu vor să știe. 0:09:24.989,0:09:28.387 Preferă să nege existența bolii, 0:09:28.387,0:09:31.661 motiv pentru care [br]nu e înțelept să-i informezi 0:09:31.661,0:09:33.370 dacă nu te întreabă. 0:09:33.370,0:09:35.800 Surprinzător, studiile arată că uneori 0:09:35.800,0:09:37.644 oamenii care își neagă boala 0:09:37.644,0:09:41.560 trăiesc mai mult[br]decât cei ce aleg rațional 0:09:41.560,0:09:43.999 cel mai bun tratament. 0:09:43.999,0:09:46.120 Însă această ignoranță 0:09:46.120,0:09:50.849 nu este de ajutor la nivel social. 0:09:50.849,0:09:54.179 Când nu știm încotro ne îndreptăm 0:09:54.179,0:09:58.364 pot apărea multe probleme sociale. 0:09:58.364,0:10:00.445 În plus, față de ignoranță, 0:10:00.445,0:10:02.683 astăzi ne confruntăm 0:10:02.683,0:10:05.844 și cu un tip de „evident”. 0:10:05.844,0:10:07.971 Filozoful francez 0:10:07.971,0:10:10.080 Louis Althusser a evidențiat că 0:10:10.080,0:10:12.643 ideologia funcționează într-un mod 0:10:12.643,0:10:16.509 care creează un văl de „evident”. 0:10:16.509,0:10:20.244 Înainte de a face [br]orice fel de critică socială, 0:10:20.244,0:10:24.631 e necesar să ridicăm acel văl de „evident” 0:10:24.631,0:10:27.960 și să ne gândim la lucruri puțin altfel. 0:10:27.960,0:10:29.997 Dacă ne întoarcem la această ideologie 0:10:29.997,0:10:32.528 a deciziei individuale, raționale, 0:10:32.528,0:10:34.856 pe care o adoptăm deseori, 0:10:34.856,0:10:36.836 e necesar ca tocmai în acest caz 0:10:36.836,0:10:39.165 să ridicăm acest văl de „evident” 0:10:39.165,0:10:42.296 și să ne gândim puțin altfel. 0:10:42.296,0:10:45.260 Pentru mine, o întrebare frecventă este 0:10:45.260,0:10:49.863 de ce încă îmbrățișăm această idee [br]a omului care își creează propriul destin, 0:10:49.863,0:10:53.395 idee pe care capitalismul [br]s-a bazat de la început? 0:10:53.395,0:10:55.880 De ce credem că suntem maeștri 0:10:55.880,0:10:59.795 ai vieții noastre, [br]încât putem lua în mod rațional 0:10:59.795,0:11:01.157 cele mai bune decizii, 0:11:01.157,0:11:04.386 și nu acceptăm pierderile sau riscurile? 0:11:04.386,0:11:07.671 Și pentru mine e foarte neobișnuit [br]să văd uneori oameni foarte săraci 0:11:07.671,0:11:10.015 neacceptând, de exemplu, 0:11:10.015,0:11:13.633 ideea ca bogații să fie taxați mai mult. 0:11:13.633,0:11:15.681 De multe ori ei încă se identifică 0:11:15.681,0:11:18.279 cu un soi de mentalitate a loteriei. 0:11:18.279,0:11:21.562 Bine, poate nu cred ca ei vor ajunge [br]undeva în viitor, 0:11:21.562,0:11:22.964 dar poate cred 0:11:22.964,0:11:26.153 că fiul lor va ajunge[br]următorul Bill Gates. 0:11:26.153,0:11:29.370 Și cine ar vrea să-și taxeze fiul? 0:11:29.370,0:11:33.200 Sau o altă întrebare pe care mi-o pun este 0:11:33.200,0:11:35.580 de ce oamenii care nu au [br]asigurare de sănătate 0:11:35.580,0:11:38.561 nu sunt de acord cu [br]sistemul de sănătate universal? 0:11:38.561,0:11:40.090 Uneori nu sunt de acord 0:11:40.090,0:11:42.914 pentru că se identifică[br]cu ideea de alegere, 0:11:42.914,0:11:45.472 dar ei nu au ce alege. 0:11:45.472,0:11:49.922 O vorbă celebră a lui [br]Margaret Thatcher este că 0:11:49.922,0:11:52.554 „nimic nu se compară cu societatea.” 0:11:52.554,0:11:55.984 „Societatea nu există, ci doar 0:11:55.984,0:11:58.130 indivizi și familiile lor.” 0:11:58.130,0:12:03.263 Din păcate, această ideologie [br]încă funcționează foarte bine, 0:12:03.263,0:12:05.547 motiv pentru care oamenilor săraci 0:12:05.547,0:12:07.470 le este rușine de sărăcia lor. 0:12:07.470,0:12:09.732 Ne putem învinovăți fără încetare 0:12:09.732,0:12:11.846 că nu luăm decizii corecte, 0:12:11.846,0:12:14.142 și de aceea nu am avut succes. 0:12:14.142,0:12:17.674 Ne temem că nu suntem suficient de buni. 0:12:17.674,0:12:19.597 De aceea muncim din greu, 0:12:19.597,0:12:21.138 petrecem multe ore la serviciu 0:12:21.138,0:12:25.576 și multe ore în a ne reface. 0:12:25.576,0:12:27.989 Când ne temem de decizii, 0:12:27.989,0:12:32.421 uneori renunțăm cu ușurință [br]la puterea de decizie. 0:12:32.421,0:12:34.217 Ne identificăm cu gurul 0:12:34.217,0:12:35.496 care ne spune ce să facem, 0:12:35.496,0:12:38.140 sau cu psihologul, 0:12:38.140,0:12:40.919 sau cu liderul totalitar 0:12:40.919,0:12:44.166 care nu pare să aibă dubii[br]legate de decizii, 0:12:44.166,0:12:45.790 care, cumva, știe. 0:12:45.790,0:12:48.566 De multe ori oamenii mă întreabă: 0:12:48.566,0:12:50.940 „Ce ați învățat studiind deciziile?” 0:12:50.940,0:12:54.111 Am învățat un lucru important. 0:12:54.111,0:12:56.598 Când mă gândesc la decizii, 0:12:56.598,0:13:01.558 personal nu le mai iau în serios. 0:13:01.558,0:13:04.510 Mai întâi am constatat[br]că multe din deciziile pe care le iau 0:13:04.510,0:13:05.639 nu sunt raționale. 0:13:05.639,0:13:07.543 Sunt legate de subconștientul meu, 0:13:07.543,0:13:09.737 de ce cred că aleg alții, 0:13:09.737,0:13:13.393 sau ce e acceptat social. 0:13:13.393,0:13:15.690 De asemenea, sunt adepta ideii că 0:13:15.690,0:13:17.330 ar trebui să ne gândim 0:13:17.330,0:13:19.254 dincolo de alegerile individuale, 0:13:19.254,0:13:22.910 că e foarte important [br]să regândim alegerile sociale, 0:13:22.910,0:13:26.711 din moment ce această ideologie[br]a alegerii individuale ne-a domolit. 0:13:26.711,0:13:29.749 Ne-a împiedicat să ne gândim[br]la schimbarea socială. 0:13:29.749,0:13:33.480 Petrecem atâta timp [br]luând decizii pentru noi, 0:13:33.480,0:13:37.480 că abia dacă reflectăm la deciziile[br]comunitare pe care le putem face. 0:13:37.480,0:13:39.526 Nu ar trebui să uităm că alegerea 0:13:39.526,0:13:41.860 e întotdeauna legată de schimbare. 0:13:41.860,0:13:43.676 Putem lua decizii individuale, 0:13:43.676,0:13:45.861 dar putem lua și decizii sociale. 0:13:45.861,0:13:49.627 Putem alege să avem mai mulți lupi. 0:13:49.627,0:13:52.394 Putem alege să ne schimbăm mediul, 0:13:52.394,0:13:54.824 ca să avem mai multe albine. 0:13:54.824,0:13:59.110 Putem alege alte agenții de rating. 0:13:59.110,0:14:01.573 Putem alege să controlăm corporațiile 0:14:01.573,0:14:05.437 în loc să lăsăm corporațiile [br]să ne controleze pe noi. 0:14:05.437,0:14:08.852 Avem posibilitatea de a face schimbări. 0:14:08.852,0:14:12.130 Am început cu un citat din Samuel Johnson, 0:14:12.130,0:14:14.859 care spunea că atunci când [br]luăm decizii în viață 0:14:14.859,0:14:17.446 nu ar trebui să uităm să trăim. 0:14:17.446,0:14:19.673 În cele din urmă, vedeți, 0:14:19.673,0:14:22.440 am putut alege pe care[br]din cele trei citate 0:14:22.440,0:14:26.491 să-l folosesc la începutul prelegerii. 0:14:26.491,0:14:28.390 Am putut alege, 0:14:28.390,0:14:30.698 iar națiunile, ca și oamenii, 0:14:30.698,0:14:32.970 pot alege să regândească 0:14:32.970,0:14:36.282 în ce fel de societate [br]vor să trăiască în viitor. 0:14:36.282,0:14:38.333 Mulțumesc. 0:14:38.333,0:14:42.563 (Aplauze)