0:00:02.000,0:00:04.560 Vreau să îmi încep prezentarea[br]cu două observații 0:00:04.560,0:00:06.420 despre specia umană. 0:00:06.420,0:00:09.740 Prima observație este ceva[br]ce ați putea crede că e chiar evident, 0:00:09.740,0:00:11.675 anume că specia noastră, Homo Sapiens, 0:00:11.675,0:00:13.938 e foarte, foarte deșteaptă – 0:00:13.938,0:00:15.487 adică, ridicol de deșteaptă – 0:00:15.487,0:00:17.070 toți faceți lucruri 0:00:17.070,0:00:20.000 pe care nicio altă specie[br]de pe planetă nu le mai face. 0:00:20.000,0:00:22.000 Și asta, bineînțeles, 0:00:22.000,0:00:24.569 nu e probabil prima dată[br]când v-ați dat seama de asta. 0:00:24.569,0:00:27.897 Firește, pe lângă deșteptăciune,[br]mai avem și extrem de mult orgoliu. 0:00:27.897,0:00:30.580 Deci ne place să scoatem în evidență[br]că suntem deștepți. 0:00:30.580,0:00:32.660 Aș putea să apelez la orice om inteligent 0:00:32.660,0:00:34.430 de la Shakespeare la Stephen Colbert 0:00:34.430,0:00:35.640 pentru a sugera 0:00:35.640,0:00:38.310 că suntem nobili în gândire[br]și nelimitați în înzestrări 0:00:38.310,0:00:40.980 și un pic mai minunați[br]decât orice altceva de pe planetă 0:00:40.980,0:00:43.000 când vorbim de creier. 0:00:43.000,0:00:46.070 Dar, bineînțeles, există o a doua[br]observație despre specia umană 0:00:46.070,0:00:47.985 pe care vreau să mă concentrez mai mult, 0:00:47.985,0:00:50.500 și aceasta e că chiar dacă[br]suntem deștepți, 0:00:50.500,0:00:52.390 câteodată unic de deștepți, 0:00:52.390,0:00:55.460 putem să fim incredibil,[br]incredibil de proști 0:00:55.460,0:00:58.180 când vine vorba de unele[br]aspecte ale luării deciziilor. 0:00:58.180,0:01:00.000 Văd multe zâmbete în public. 0:01:00.000,0:01:02.301 Stați liniștiți, nu voi da nume 0:01:02.301,0:01:04.000 ca exemplu de greșeli. 0:01:04.000,0:01:06.000 Dar bineînțeles, numai în ultimii doi ani 0:01:06.000,0:01:09.230 am observat câteva exemple nemaiîntâlnite[br]de prostie omenească. 0:01:09.230,0:01:12.000 Și am văzut cum uneltele[br]pe care doar noi le facem 0:01:12.000,0:01:14.314 ca să luăm resursele[br]din mediul înconjurător 0:01:14.314,0:01:16.000 ne explodează în față. 0:01:16.000,0:01:18.880 Am urmărit piețele financiare[br]pe care doar noi le creăm – 0:01:18.880,0:01:21.380 aceste piețe care ar fi trebuit[br]să fie inofensive – 0:01:21.380,0:01:23.000 am văzut cum s-au prăbușit. 0:01:23.000,0:01:25.000 Dar ambele exemple rușinoase, 0:01:25.000,0:01:28.000 nu evidențiază ce este cel mai rușinos 0:01:28.000,0:01:30.000 despre greșelile pe care le fac oamenii, 0:01:30.000,0:01:33.000 și anume că ne-ar plăcea[br]să credem că greșelile noastre 0:01:33.000,0:01:35.000 sunt doar din cauza câtorva[br]„mere stricate” 0:01:35.000,0:01:38.000 sau a două-trei decizii[br]demne de cascadorii râsului. 0:01:38.000,0:01:41.000 Dar se pare că sociologii află 0:01:41.000,0:01:44.000 cei mai mulți dintre noi,[br]puși în anumite contexte, 0:01:44.000,0:01:47.000 vom face anumite greșeli. 0:01:47.000,0:01:49.000 Erorile pe care le facem[br]sunt predictibile. 0:01:49.000,0:01:51.000 Le facem iar și iar. 0:01:51.000,0:01:53.510 Și chiar sunt imune[br]la o mulțime de dovezi. 0:01:53.510,0:01:55.000 Când primim reacții negative, 0:01:55.000,0:01:58.000 tot avem tendința[br]de a face aceleași greșeli, 0:01:58.000,0:02:00.180 data viitoare când suntem[br]în același context. 0:02:00.180,0:02:02.480 Și asta a fost o adevărată[br]problemă pentru mine, 0:02:02.480,0:02:04.570 în calitate de cercetător[br]al naturii umane. 0:02:04.570,0:02:06.600 Lucrul de care sunt cel mai curioasă 0:02:06.600,0:02:09.000 e cum poate o specie[br]așa inteligentă ca a noastră 0:02:09.000,0:02:11.000 să facă greșeli atât de grave 0:02:11.000,0:02:13.000 și atât de consecvente tot timpul? 0:02:13.000,0:02:16.240 Suntem cei mai deștepți,[br]de ce nu putem să rezolvăm problema asta? 0:02:16.240,0:02:19.000 Într-un fel, de unde apar[br]greșelile noastre? 0:02:19.000,0:02:22.390 Și după ce m-am gândit puțin la asta,[br]am venit cu câteva posibilități. 0:02:22.390,0:02:25.000 O posibilitate e că de fapt[br]nu e vina noastră. 0:02:25.000,0:02:27.000 Pentru că suntem o specie isteață, 0:02:27.000,0:02:29.000 putem să creăm tot felul de medii 0:02:29.000,0:02:31.000 care sunt extrem de complicate, 0:02:31.000,0:02:34.000 uneori prea complicate ca să le înțelegem, 0:02:34.000,0:02:36.000 cu toate că noi le-am creat. 0:02:36.000,0:02:38.420 Facem piețe financiare[br]care sunt super complexe. 0:02:38.420,0:02:41.000 Facem credite ipotecare[br]cu care nu ne descurcăm. 0:02:41.000,0:02:44.270 Și, bineînțeles, dacă suntem puși[br]în medii în care nu ne descurcăm, 0:02:44.270,0:02:48.000 într-un fel e logic[br]dacă greșim unele lucruri. 0:02:48.000,0:02:50.650 Dacă ar fi fost așa,[br]am fi avut o soluție foarte simplă 0:02:50.650,0:02:52.000 la problema erorii umane. 0:02:52.000,0:02:54.000 Am fi spus, bine, hai să descoperim 0:02:54.000,0:02:56.360 tipurile de tehnologii[br]cu care nu ne descurcăm, 0:02:56.360,0:02:58.000 mediile care sunt dăunătoare – 0:02:58.000,0:03:00.250 scăpăm de astea,[br]proiectăm lucrurile mai bine, 0:03:00.250,0:03:02.000 și vom fi specia aceea nobilă 0:03:02.000,0:03:04.000 care ne așteptăm să fim. 0:03:04.000,0:03:07.306 Dar mai e o posibilitate[br]care mi se pare un pic mai îngrijorătoare: 0:03:07.306,0:03:10.000 poate nu mediile sunt stricate. 0:03:10.000,0:03:13.000 Poate chiar noi suntem construiți prost. 0:03:13.000,0:03:15.000 Asta e o idee care mi-a venit 0:03:15.000,0:03:18.420 când am văzut felul în care sociologii[br]au învățat despre erorile umane. 0:03:18.420,0:03:21.000 Și ce vedem e că oamenii[br]continuă să facă greșeli 0:03:21.000,0:03:24.000 în exact același fel, la nesfârșit. 0:03:24.000,0:03:26.000 Pare că am suntem construiți 0:03:26.000,0:03:28.000 să facem greșeli într-un anumit mod. 0:03:28.000,0:03:31.000 Aceasta e o posibilitate[br]pentru care îmi fac mai multe griji, 0:03:31.000,0:03:33.310 pentru că,[br]dacă noi suntem cei cu probleme, 0:03:33.310,0:03:35.520 nu e clar ce facem ca să le rezolvăm. 0:03:35.520,0:03:38.650 S-ar putea să trebuiască să acceptăm[br]că suntem înclinați să greșim 0:03:38.650,0:03:41.240 și să încercăm să proiectăm[br]lucruri care să evite asta. 0:03:41.240,0:03:44.110 Asta e întrebarea la care am vrut[br]să ajung cu studenții mei. 0:03:44.110,0:03:46.640 Cum facem diferența[br]dintre posibilitatea unu și doi? 0:03:46.640,0:03:48.000 Avem nevoie de o populație 0:03:48.000,0:03:50.580 care e în principiu deșteaptă,[br]poate lua multe decizii, 0:03:50.580,0:03:53.133 dar nu are acces la niciun[br]sistem pe care îl avem noi, 0:03:53.133,0:03:55.510 oricare dintre lucrurile[br]care ne-ar putea strica – 0:03:55.510,0:03:57.040 fără tehnologie umană, cultură, 0:03:57.040,0:03:58.480 poate chiar nici limbaj uman. 0:03:58.480,0:04:00.300 Și de aceea am apelat la acești tipi. 0:04:00.300,0:04:03.000 Aceștia sunt indivizii cu care lucrez.[br]E un capucin maro. 0:04:03.000,0:04:05.000 Acestea sunt platiriene, 0:04:05.000,0:04:07.190 ce înseamnă că s-au despărțit[br]de ramura umană 0:04:07.190,0:04:09.000 acum 35 milioane de ani. 0:04:09.000,0:04:11.320 Înseamnă că stră, stră, stră – 0:04:11.320,0:04:13.000 cu vreo cinci milioane de „stră” – 0:04:13.000,0:04:15.970 străbunica voastră a fost probabil[br]aceeași stră, stră, stră, 0:04:15.970,0:04:17.920 străbunică, cu cinci milioane de „stră” 0:04:17.920,0:04:19.330 ca a lui Holly, cea de aici. 0:04:19.330,0:04:22.270 Puteți să vă consolați cu ideea[br]că e o rudă foarte îndepărtată 0:04:22.270,0:04:24.000 cu toate că evoluționistă. 0:04:24.000,0:04:26.000 Totuși, vestea bună despre Holly 0:04:26.000,0:04:28.820 e că nu are aceleași tehnologii[br]pe care le avem noi. 0:04:28.820,0:04:32.000 E isteață, e drăguță și o primată, 0:04:32.000,0:04:34.710 dar îi lipsesc lucrurile[br]care credem că ne dau peste cap. 0:04:34.710,0:04:36.560 Așa că e subiectul perfect de testat. 0:04:36.560,0:04:39.120 Dacă am pune-o pe Holly[br]în același context ca oamenii? 0:04:39.120,0:04:41.000 Va face aceleași greșeli ca și noi? 0:04:41.000,0:04:43.000 Va învăța din ele? 0:04:43.000,0:04:45.000 Asta ne-am hotărât să facem. 0:04:45.000,0:04:48.100 Eu și studenții mei ne-am entuziasmat[br]foarte tare acum câțiva ani. 0:04:48.100,0:04:50.210 Am zis, bine,[br]să îi dăm probleme lui Holly, 0:04:50.210,0:04:51.410 să vedem dacă greșește. 0:04:51.410,0:04:54.000 Prima problemă e de unde să începem? 0:04:54.000,0:04:56.580 Pentru că e minunat pentru noi,[br]dar rău pentru oameni. 0:04:56.580,0:04:58.530 Facem multe greșeli în diverse contexte. 0:04:58.530,0:05:00.000 De unde să începem? 0:05:00.000,0:05:03.240 Și pentru că am început[br]asta la începutul crizei financiare, 0:05:03.240,0:05:05.600 când prescrierile ipotecare[br]erau pe prima pagină, 0:05:05.600,0:05:07.000 am zis că poate ar trebui 0:05:07.000,0:05:09.000 să începem în domeniul financiar. 0:05:09.000,0:05:12.170 Poate ar trebui să analizăm[br]la deciziile economice ale maimuțelor 0:05:12.170,0:05:15.400 și să încercăm să vedem dacă[br]fac aceleași greșeli ca noi. 0:05:15.400,0:05:17.649 Desigur, atunci am dat[br]de a doua problemă – 0:05:17.649,0:05:19.000 un pic mai metodologică – 0:05:19.000,0:05:21.000 aceea că, poate voi nu știți, 0:05:21.000,0:05:24.000 dar maimuțele nu folosesc bani.[br]Știu, nu le-ați cunoscut. 0:05:24.000,0:05:26.381 Dar de asta ele nu stau[br]la coadă în spatele vostru 0:05:26.381,0:05:29.000 la alimentară sau la bancomat –[br]ele nu fac asta. 0:05:29.000,0:05:32.000 Așa că aveam o mică problemă. 0:05:32.000,0:05:34.000 Cum să le cerem bani maimuțelor 0:05:34.000,0:05:36.000 dacă ele nu îi folosesc? 0:05:36.000,0:05:38.000 Și am zis, poate ar trebui 0:05:38.000,0:05:40.000 și să le învățăm să folosească banii. 0:05:40.000,0:05:42.000 Și asta am și făcut. 0:05:42.000,0:05:45.000 Ce vedeți aici e prima[br]unitate monetară neomenească 0:05:45.000,0:05:47.000 pe care o știu. 0:05:47.000,0:05:49.550 Nu eram prea creativi[br]când am început aceste studii, 0:05:49.550,0:05:51.000 așa că l-am numit jeton. 0:05:51.000,0:05:54.000 Dar asta e unitatea monetară[br]învățată de maimuțele de la Yale 0:05:54.000,0:05:56.000 să o folosească cu oamenii, 0:05:56.000,0:05:59.000 și să cumpere diverse bucăți de mâncare. 0:05:59.000,0:06:01.000 Nu pare mult – de fapt nici nu e mult. 0:06:01.000,0:06:03.940 La fel ca mulți dintre banii noștri,[br]e doar o bucată de metal. 0:06:03.940,0:06:06.640 După cum știți cei care ați luat[br]acasă bani din excursii, 0:06:06.640,0:06:08.610 odată ajuns acasă nu mai valorează nimic. 0:06:08.610,0:06:10.500 Era inutil și pentru maimuțe la început 0:06:10.500,0:06:12.520 înainte să își dea seama[br]ce pot face cu el. 0:06:12.520,0:06:14.780 Prima dată când le-am dat monede în cuști, 0:06:14.780,0:06:16.450 le-au luat, s-au uitat la ele. 0:06:16.450,0:06:18.000 Erau ca niște lucruri stranii. 0:06:18.000,0:06:20.000 Dar destul de repede, maimuțele au înțeles 0:06:20.000,0:06:22.000 că puteau să predea aceste jetoane 0:06:22.000,0:06:25.000 diverșilor oameni din laborator[br]în schimbul hranei. 0:06:25.000,0:06:27.601 Și vedeți aici una dintre maimuțe,[br]Mayday, făcând asta. 0:06:27.601,0:06:31.750 În poza A și B e puțin curioasă[br]de aceste lucruri, nu le cunoaște. 0:06:31.750,0:06:34.000 Un experimentator uman stă cu mâna întinsă 0:06:34.000,0:06:37.000 și Mayday își dă seama imediat[br]că omul vrea jetonul. 0:06:37.000,0:06:39.000 Dă jetonul și primește niște mâncare. 0:06:39.000,0:06:41.690 Se pare că nu doar Mayday,[br]ci toate maimuțele se pricep 0:06:41.690,0:06:43.440 să schimbe jetoane. 0:06:43.440,0:06:45.600 Acesta e un scurt video. 0:06:45.600,0:06:48.359 Aici este Mayday.[br]Va da un jeton în schimbul mâncării 0:06:48.359,0:06:51.000 și va aștepta mulțumită[br]să-și primească mâncarea. 0:06:51.000,0:06:53.700 Aici e Feli. El e masculul alfa;[br]e destul de mare. 0:06:53.700,0:06:56.650 Dar și el așteaptă răbdător,[br]își primește mâncarea și continuă. 0:06:56.650,0:06:58.368 Maimuțele sunt foarte pricepute. 0:06:58.368,0:07:01.000 Sunt surprinzător de bune,[br]fără prea mult antrenament. 0:07:01.000,0:07:03.000 Le-am lăsat să-și dea seama singure. 0:07:03.000,0:07:05.000 Întrebarea e: sunt la fel ca banii noștri? 0:07:05.000,0:07:07.000 E o piață, 0:07:07.000,0:07:09.000 sau am făcut un truc psihologic ciudat, 0:07:09.000,0:07:11.000 convingând maimuțele să facă ceva, 0:07:11.000,0:07:13.000 părând deștepte, fără să fie de fapt. 0:07:13.000,0:07:16.000 Așa că am spus:[br]ce ar face maimuțele în mod spontan 0:07:16.000,0:07:19.300 dacă ar fi cu adevărat moneda lor,[br]dacă i-ar folosi pe post de bani? 0:07:19.300,0:07:21.000 V-ați putea să vi le imaginați 0:07:21.000,0:07:23.000 făcând tot felul de lucruri inteligente 0:07:23.000,0:07:26.370 pe care oamenii le fac atunci[br]când tranzacționează bani între ei. 0:07:26.370,0:07:29.000 Te-ai aștepta să înceapă[br]să fie atente la preț, 0:07:29.000,0:07:31.000 la cât de mult cumpără, 0:07:31.000,0:07:34.000 să țină cumva minte câți bani au. 0:07:34.000,0:07:36.000 Fac maimuțele ceva asemănător? 0:07:36.000,0:07:39.000 Și așa a apărut piața maimuțelor. 0:07:39.000,0:07:40.770 Modul în care funcționează 0:07:40.770,0:07:44.175 e că maimuțele trăiesc de obicei[br]într-un fel de grădină zoologică mare. 0:07:44.175,0:07:46.000 Când li se face dor de niște dulciuri, 0:07:46.000,0:07:48.000 le-am lăsat o ușă deschisă 0:07:48.000,0:07:50.150 spre o incintă unde puteau[br]să intre în piață. 0:07:50.150,0:07:52.000 După ce intrau în piață, 0:07:52.000,0:07:55.470 era mult mai amuzantă pentru maimuțe[br]decât majoritatea piețelor omenești 0:07:55.470,0:07:57.000 pentru că după ce intră 0:07:57.000,0:07:59.340 un om le dădea un portofel[br]mare plin de jetoane 0:07:59.340,0:08:01.340 ca să poată să facă comerț cu jetoanele 0:08:01.340,0:08:03.200 cu unul dintre cei doi oameni de aici, 0:08:03.200,0:08:05.000 doi potențiali comercianți 0:08:05.000,0:08:07.000 de la care se putea cumpăra. 0:08:07.000,0:08:09.290 Comercianții erau studenți[br]din laboratorul meu. 0:08:09.290,0:08:11.500 S-au îmbrăcat diferit;[br]erau oameni diferiți. 0:08:11.500,0:08:14.000 Și, de-a lungul timpului[br]au făcut același lucru 0:08:14.000,0:08:16.000 astfel încât maimuțele să poată învăța, 0:08:16.000,0:08:19.260 cine ce vinde și la ce preț,[br]cine era de încredere, cine nu. 0:08:19.260,0:08:21.480 Și puteți vedea că fiecare experimentator 0:08:21.480,0:08:24.000 ține de fapt o mică farfurie galbenă. 0:08:24.000,0:08:26.680 Asta poate primi maimuța[br]pentru un singur jeton. 0:08:26.680,0:08:28.100 Deci totul costă un jeton, 0:08:28.100,0:08:30.970 dar câteodată unele jetoanele cumpără[br]mai mult decât altele, 0:08:30.970,0:08:32.520 mai mulți struguri decât altele. 0:08:32.520,0:08:35.000 Vă voi arăta un video[br]despre cum arata această piață. 0:08:35.000,0:08:38.368 Au găuri în gem la nivelul lor,[br]deoarece maimuțele sunt mai scunde. 0:08:38.368,0:08:39.750 Aici este Honey. 0:08:39.750,0:08:42.220 Așteaptă să se deschidă piața,[br]e puțin nerăbdătoare. 0:08:42.220,0:08:45.580 Deodată, se deschide piața.[br]Alegerea ei: un strugure sau doi struguri. 0:08:45.580,0:08:47.630 Honey e un foarte bun economist de piață, 0:08:47.630,0:08:50.000 îl alege pe cel ce oferă mai mult. 0:08:50.000,0:08:53.190 I-ar putea învăța pe consultanții noștri[br]financiari câteva lucruri. 0:08:53.190,0:08:54.440 Și nu doar Honey, 0:08:54.440,0:08:57.000 majoritatea maimuțelor[br]au ales oferta ce mai bună. 0:08:57.000,0:08:59.360 și cu mâncarea cea mai bună. 0:08:59.360,0:09:02.260 Când am introdus vânzările,[br]maimuțele le-au acordat atenție. 0:09:02.260,0:09:05.000 Chiar le păsa de jetonul lor. 0:09:05.000,0:09:08.590 Cel mai surprinzător lucru a fost[br]că atunci când am colaborat cu economiști 0:09:08.590,0:09:11.460 pentru a analiza datele maimuțelor[br]cu instrumente economice, 0:09:11.460,0:09:14.384 s-au cam potrivit, nu doar calitativ, 0:09:14.384,0:09:16.302 dar și cantitativ cu ce i-am văzut 0:09:16.302,0:09:18.000 pe oameni făcând pe piața reală. 0:09:18.000,0:09:20.670 Atât de mult încât[br]dacă ai fi văzut numerele maimuțelor, 0:09:20.670,0:09:23.995 nu ți-ai fi dat seama dacă sunt[br]ale maimuțelor sau ale unor oamenilor. 0:09:23.995,0:09:25.000 Și am crezut 0:09:25.000,0:09:27.000 că am introdus ceva 0:09:27.000,0:09:29.230 care, cel puțin pentru maimuțe[br]și pentru noi, 0:09:29.230,0:09:31.270 funcționează ca o valută financiară reală. 0:09:31.270,0:09:34.000 Întrebarea e: și maimuțele greșesc[br]în același mod ca noi? 0:09:34.000,0:09:37.250 Deja văzusem în mod anecdotic[br]niște semne că ar putea. 0:09:37.250,0:09:39.770 Un lucru pe care nu l-am văzut[br]pe piața maimuțelor 0:09:39.770,0:09:41.470 a fost vreo dovadă de economisire, 0:09:41.470,0:09:43.000 la fel ca specia noastră. 0:09:43.000,0:09:45.670 Maimuțele au intrat pe piață,[br]și-au cheltuit tot bugetul 0:09:45.670,0:09:47.501 și apoi s-au întors. 0:09:47.501,0:09:49.873 Celălalt lucru[br]pe care l-am observat spontan, 0:09:49.873,0:09:51.000 destul de jenant, 0:09:51.000,0:09:53.000 e furtul spontan. 0:09:53.000,0:09:56.000 Maimuțele furau jetoanele cu orice ocazie, 0:09:56.000,0:09:58.000 între ele, câteodată de la noi, 0:09:58.000,0:10:00.490 lucruri pe care nu le-am[br]testat intenționat, 0:10:00.490,0:10:02.480 dar pe care le-am observat spontan. 0:10:02.480,0:10:04.000 Ne-am spus: asta e rău. 0:10:04.000,0:10:06.000 Putem vedea dacă maimuțele 0:10:06.000,0:10:09.000 fac exact aceleași lucruri[br]prostești ca oamenii? 0:10:09.000,0:10:11.000 Una dintre posibilități era să lăsăm 0:10:11.000,0:10:13.400 sistemul financiar al maimuțelor[br]să funcționeze 0:10:13.400,0:10:16.539 și să vedem dacă în câțiva ani[br]ne cheamă să le plătim datoriile. 0:10:16.539,0:10:19.130 Eram puțin nerăbdători,[br]așa că am grăbit lucrurile. 0:10:19.130,0:10:21.420 Am spus: hai să le dăm maimuțelor 0:10:21.420,0:10:23.000 aceleași probleme 0:10:23.000,0:10:25.170 la care oamenii tind să greșească 0:10:25.170,0:10:27.370 în anumite tipuri de încercări economice, 0:10:27.370,0:10:29.500 sau anumite tipuri[br]de experimente economice. 0:10:29.500,0:10:32.430 Din moment ce cel mai bun mod[br]de a vedea cum greșesc oamenii 0:10:32.430,0:10:34.000 e să facem asta chiar noi, 0:10:34.000,0:10:36.000 vă voi oferi și vouă un mic experiment 0:10:36.000,0:10:38.920 ca să vă vedem propriile[br]intuiții financiare în acțiune. 0:10:38.920,0:10:42.000 Imaginați-vă că v-am dat fiecăruia 0:10:42.000,0:10:45.357 o mie de dolari americani –[br]deci 10 bancnote noi de o sută de dolari. 0:10:45.357,0:10:47.000 Luați-i, puneți-i în buzunar 0:10:47.000,0:10:49.420 și gândiți-vă o secundă[br]ce ați face cu banii. 0:10:49.420,0:10:51.460 Sunt ai voștri, puteți cumpăra ce vreți. 0:10:51.460,0:10:53.000 Îi puteți donați, lua, etc. 0:10:53.000,0:10:56.640 E minunat, dar aveți de făcut o alegere[br]pentru a mai câștiga mai mulți bani. 0:10:56.640,0:10:59.000 Aveți opțiunile: ori să riscați, 0:10:59.000,0:11:01.370 caz în care voi arunca[br]unul dintre aceste jetoane. 0:11:01.370,0:11:03.740 Dacă este cap,[br]mai primiți o mie de dolari. 0:11:03.740,0:11:05.440 Dacă e pajură, nu primiți nimic. 0:11:05.440,0:11:08.570 Deci aveți o șansă să câștigați mai mult,[br]dar e destul de riscant. 0:11:08.570,0:11:12.020 Cealaltă opțiune e o ofertă sigură.[br]Cu siguranță o să primiți niște bani. 0:11:12.020,0:11:13.253 O să vă dau 500 $. 0:11:13.253,0:11:16.000 Puteți să-i băgați în portofel[br]și să-i folosiți imediat. 0:11:16.000,0:11:18.000 Observați care vă e intuiția. 0:11:18.000,0:11:21.000 Cei mai mulți oameni merg[br]pe opțiunea mai sigură. 0:11:21.000,0:11:24.560 Cei mai mulți spun: „De ce să risc,[br]dacă pot obține sigur 1.500 de dolari?” 0:11:24.560,0:11:26.230 Pare un pariu bun. Asta voi face. 0:11:26.230,0:11:28.000 Ați putea spune: „Nu-i irațional." 0:11:28.000,0:11:30.320 Oamenii au o mică[br]aversiune față de risc. Și ce? 0:11:30.320,0:11:34.000 Partea cu „și ce?” apare când ne gândim[br]la aceeași problemă 0:11:34.000,0:11:36.000 pusă un pic diferit. 0:11:36.000,0:11:38.000 Acum imaginați-vă că v-aș da fiecăruia 0:11:38.000,0:11:41.000 2.000 dolari –[br]20 de bancnote de o sută de dolari. 0:11:41.000,0:11:43.460 Acum puteți cumpăra[br]de două ori mai mult ca înainte. 0:11:43.460,0:11:45.540 Gândiți-vă cum ar fi[br]să-i aveți în portofel. 0:11:45.540,0:11:47.650 Și acum vă pun să faceți o altă alegere. 0:11:47.650,0:11:49.090 Dar acum e un pic mai rău. 0:11:49.090,0:11:52.540 Acum o să alegeți cum să pierdeți banii, 0:11:52.540,0:11:54.290 dar aveți aceleași opțiuni. 0:11:54.290,0:11:56.310 Puteți să alegeți o pierdere riscantă: 0:11:56.310,0:11:59.000 dau cu banul, dacă e cap, pierdeți mult, 0:11:59.000,0:12:02.000 dacă e pajură, nu pierdeți nimic,[br]rămâneți cu toată suma, 0:12:02.000,0:12:05.570 sau puteți să jucați la sigur,[br]ceea ce înseamnă că băgați mâna în buzunar 0:12:05.570,0:12:08.710 și îmi dați cinci dintre bancnotele[br]de 100 de dolari. 0:12:08.710,0:12:11.000 Și văd destule frunți încruntate aici. 0:12:11.000,0:12:13.250 Deci probabil aveți aceeași intuiție 0:12:13.250,0:12:15.000 ca subiecții testați în realitate: 0:12:15.000,0:12:17.000 dacă li se prezintă aceste opțiuni, 0:12:17.000,0:12:19.000 oamenii nu aleg să joace la sigur, 0:12:19.000,0:12:21.000 ci tind să riște puțin. 0:12:21.000,0:12:24.000 Motivul pentru care e irațional[br]e că le-am dat oamenilor 0:12:24.000,0:12:26.000 în ambele situații aceleași opțiuni. 0:12:26.000,0:12:29.000 E o șansă din două pentru 1.000 sau 2.000, 0:12:29.000,0:12:31.000 sau doar 1.500$ în mod sigur. 0:12:31.000,0:12:34.000 Dar intuiția oamenilor[br]despre cât risc să își asume 0:12:34.000,0:12:36.395 variază în funcție de unde au început. 0:12:36.395,0:12:38.000 Deci ce se întâmplă? 0:12:38.000,0:12:40.220 Am observat că acesta[br]pare să fie rezultatul 0:12:40.220,0:12:43.379 a cel puțin două prejudecăți[br]pe care le avem la nivel psihologic. 0:12:43.379,0:12:46.680 Una este că ne e foarte greu[br]să gândim în termeni absoluți. 0:12:46.680,0:12:48.990 Trebuie să faci un efort[br]ca să îți dai seama: 0:12:48.990,0:12:50.403 o opțiune e o mie, 2.000; 0:12:50.403,0:12:52.000 alta este 1.500. 0:12:52.000,0:12:55.470 În schimb, ne pare foarte ușor[br]să gândim în termeni relativi 0:12:55.470,0:12:58.000 pe măsură ce opțiunile se schimbă. 0:12:58.000,0:13:01.314 Și ne gândim:[br]„Voi primi mai mult sa mai puțin.” 0:13:01.314,0:13:03.450 Toate acestea sunt bune,[br]cu excepția faptului 0:13:03.450,0:13:05.320 că schimbările în diverse direcții 0:13:05.320,0:13:07.470 chiar afectează dacă gândim sau nu 0:13:07.470,0:13:09.190 că opțiunile sunt bune sau nu. 0:13:09.190,0:13:11.350 Și asta ne duce[br]la cea de-a doua prejudecată, 0:13:11.350,0:13:13.690 pe care economiștii[br]au numit-o frica de pierdere. 0:13:13.690,0:13:16.221 Ideea e că urâm când lucrurile[br]ajung la nivelul roșu. 0:13:16.221,0:13:18.730 Nu ne place deloc când trebuie[br]să pierdem niște bani. 0:13:18.730,0:13:20.602 Și asta înseamnă că uneori ne vom 0:13:20.602,0:13:22.470 schimba preferințele ca să evităm asta. 0:13:22.470,0:13:24.270 Ce ați văzut în scenariul precedent 0:13:24.270,0:13:25.830 e că subiecții riscă 0:13:25.830,0:13:29.000 pentru că vor mica posibilitate[br]să nu piardă nimic. 0:13:29.000,0:13:31.460 Asta înseamnă că atunci[br]când avem o mentală de risc, 0:13:31.460,0:13:33.320 mă scuzați, o mentalitate de pierdere, 0:13:33.320,0:13:35.000 ne asumăm mai multe riscuri, 0:13:35.000,0:13:37.000 ceea ce poate fi îngrijorător. 0:13:37.000,0:13:40.000 Aceste lucruri se manifestă[br]în multe moduri negative la oameni. 0:13:40.000,0:13:43.240 Din cauza lor investitorii așteaptă[br]mai mult până să piardă capital, 0:13:43.240,0:13:45.250 pentru că evaluează în termeni relativi. 0:13:45.250,0:13:47.910 Din același motiv oamenii[br]refuză să își vândă casa, 0:13:47.910,0:13:49.850 pentru că nu vor să o vândă în pierdere. 0:13:49.850,0:13:51.510 Întrebarea de care eram interesați 0:13:51.510,0:13:53.480 e dacă maimuțele au aceleași prejudecăți. 0:13:53.480,0:13:56.160 Dacă avem aceleași scenarii[br]pe piața maimuțelor, 0:13:56.160,0:13:58.170 vor face și ele aceleași lucruri? 0:13:58.170,0:14:00.230 Așa că le-am cerut maimuțelor să aleagă 0:14:00.230,0:14:03.540 între indivizi care erau siguri:[br]făceau același lucru de fiecare dată, 0:14:03.540,0:14:05.200 și indivizi care erau riscanți: 0:14:05.200,0:14:07.240 făceau lucrurile diferit[br]jumătate din timp. 0:14:07.240,0:14:09.440 Și când le-am dat opțiuni[br]care erau bonusuri, 0:14:09.440,0:14:11.300 cum ați făcut voi în primul scenariu, 0:14:11.300,0:14:13.800 astfel încât să mai aibă[br]o șansă să obțină mai mult, 0:14:13.800,0:14:16.000 sau în care experimentau pierderi: 0:14:16.000,0:14:18.280 credeau că vor obține[br]mai mult decât au obținut. 0:14:18.280,0:14:19.690 Și așa arată. 0:14:19.690,0:14:22.000 Le prezentam maimuțelor doi vânzători. 0:14:22.000,0:14:25.146 Tipul din stânga și cel din dreapta[br]încep cu o boabă de strugure, 0:14:25.146,0:14:26.310 deci e destul de bine. 0:14:26.310,0:14:28.220 Dar ei le vor da bonusuri maimuțelor. 0:14:28.220,0:14:30.260 Cel din stânga e un bonus sigur. 0:14:30.260,0:14:33.000 Mereu adaugă o boabă, deci le dă două. 0:14:33.000,0:14:35.478 Cel din dreapta e un bonus riscant. 0:14:35.478,0:14:38.530 Uneori maimuțele nu primesc niciun bonus,[br]deci un bonus de zero. 0:14:38.530,0:14:41.000 Câteodată maimuțele primesc două în plus, 0:14:41.000,0:14:43.000 deci primesc trei boabe. 0:14:43.000,0:14:45.440 Asta e aceeași alegere[br]pe care ați avut-o și voi. 0:14:45.440,0:14:48.000 Vor maimuțele să joace la sigur 0:14:48.000,0:14:50.780 și vor alege vânzătorul care va face[br]același lucru mereu, 0:14:50.780,0:14:52.000 sau vor risca 0:14:52.000,0:14:54.300 și vor încerca să primească[br]un bonus mai mare, 0:14:54.300,0:14:56.380 însă riscând să nu primească niciun bonus. 0:14:56.380,0:14:58.000 Oamenii de aici au jucat la sigur. 0:14:58.000,0:15:00.320 Se pare că și maimuțele joacă la sigur. 0:15:00.320,0:15:02.460 Cantitativ și calitativ, 0:15:02.460,0:15:04.410 ele aleg exact în același fel ca oamenii, 0:15:04.410,0:15:06.310 când sunt testate în aceleași condiții. 0:15:06.310,0:15:08.920 Ați putea spune că poate[br]maimuțelor nu le place riscul. 0:15:08.920,0:15:11.490 Poate trebuie să vedem[br]cum se descurcă cu pierderile. 0:15:11.490,0:15:13.320 Am făcut o a doua versiune a testului. 0:15:13.320,0:15:15.220 Acum maimuțele întâlnesc două persoane 0:15:15.220,0:15:16.470 care nu le dau bonusuri; 0:15:16.470,0:15:18.570 le dau de fapt mai puțin[br]decât s-ar aștepta. 0:15:18.570,0:15:20.240 Și pare că încep cu o sumă mare. 0:15:20.240,0:15:22.420 Sunt trei bobițe;[br]maimuțele sunt entuziasmate. 0:15:22.420,0:15:25.399 Dar acum află că le vor da[br]mai puțin decât se așteaptă. 0:15:25.399,0:15:27.360 Tipul din stânga e o pierdere sigură. 0:15:27.360,0:15:30.000 De fiecare dată va lua una 0:15:30.000,0:15:32.000 și le va da maimuțelor doar două. 0:15:32.000,0:15:34.000 Tipul din dreapta e pierderea riscantă. 0:15:34.000,0:15:37.000 Uneori nu ia nimic înapoi,[br]așa că maimuțele sunt bucuroase, 0:15:37.000,0:15:39.000 dar câteodată pierderile sunt mari, 0:15:39.000,0:15:41.390 luând două pentru a-i da[br]maimuței doar una. 0:15:41.390,0:15:43.000 Deci ce fac maimuțele? 0:15:43.000,0:15:45.400 Din nou, aceeași alegere;[br]pot să joace la sigur 0:15:45.400,0:15:48.000 pentru a primi de fiecare dată[br]două boabe de strugure, 0:15:48.000,0:15:51.000 sau pot să facă un pariu riscant[br]și să aleagă între una și trei. 0:15:51.000,0:15:54.320 Lucrul remarcabil e că atunci[br]când le dai maimuțelor această alegere, 0:15:54.320,0:15:56.550 ele fac același lucru[br]irațional ca oamenii. 0:15:56.550,0:15:58.500 Ele își asumă mia multe riscuri 0:15:58.500,0:16:01.000 în funcție de cum[br]e construit experimentul. 0:16:01.000,0:16:03.490 Asta e o nebunie[br]pentru că sugerează că și maimuțele 0:16:03.490,0:16:05.410 evaluează lucrurile în termeni relativi 0:16:05.410,0:16:08.868 și chiar tratează pierderile[br]diferit de câștiguri. 0:16:08.868,0:16:10.613 Așadar, ce înseamnă toate astea? 0:16:10.613,0:16:12.436 Ce am arătat e că, în primul rând, 0:16:12.436,0:16:14.690 putem să le dăm maimuțelor bani 0:16:14.690,0:16:16.739 și fac lucruri similare cu ei. 0:16:16.739,0:16:19.180 Fac unele lucruri deștepte[br]pe care le facem și noi, 0:16:19.180,0:16:20.730 și unele lucruri nu prea bune, 0:16:20.730,0:16:22.000 cum ar fi furatul. 0:16:22.000,0:16:24.680 Dar ele fac și unele lucruri[br]iraționale pe care le facem. 0:16:24.680,0:16:26.569 În mod sistematic greșesc 0:16:26.569,0:16:28.000 și în același mod ca noi. 0:16:28.000,0:16:30.190 Acesta e primul mesaj de reținut, 0:16:30.190,0:16:32.230 dacă la începutul[br]prezentării v-ați gândit: 0:16:32.230,0:16:35.297 Ajung acasă și îmi angajez un capucin[br]drept consultant financiar. 0:16:35.297,0:16:36.236 Sunt mai drăguți... 0:16:36.236,0:16:38.760 Nu faceți asta;[br]și ei vor fi probabil la fel de proști 0:16:38.760,0:16:41.000 ca cel uman pe care îl aveți deja. 0:16:41.000,0:16:43.180 Deci, un pic mai rău...[br]Scuze, scuze, scuze. 0:16:43.180,0:16:45.290 Un pic mai rău[br]pentru investitorii maimuțe. 0:16:45.290,0:16:48.190 Dar motivul pentru care râdeți[br]e că e rău și pentru oameni. 0:16:48.190,0:16:51.000 Pentru că am răspuns[br]la întrebarea cu care am început. 0:16:51.000,0:16:53.591 Am vrut să vedem[br]de unde vin aceste tipuri de erori. 0:16:53.591,0:16:55.590 Și am început cu speranța că poate putem 0:16:55.590,0:16:57.621 cumva să ne reglăm[br]instituțiile financiare, 0:16:57.621,0:17:00.000 să ne reglăm tehnologiile[br]ca să fim mai buni. 0:17:00.000,0:17:03.000 Dar am aflat e că aceste prejudecăți[br]sunt o parte din noi. 0:17:03.000,0:17:05.600 De fapt, ar putea fi cauzate[br]chiar de natura 0:17:05.600,0:17:07.120 istoriei noastre evolutive. 0:17:07.120,0:17:09.000 Și poate nu doar oamenii 0:17:09.000,0:17:11.440 din partea dreaptă[br]a acestui lanț sunt iraționali. 0:17:11.440,0:17:13.424 Poate că e irațional pe toată lungimea. 0:17:13.424,0:17:16.000 Și asta, dacă credem[br]rezultatele cu capucinii, 0:17:16.000,0:17:18.000 înseamnă că aceste strategii iraționale 0:17:18.000,0:17:20.000 ar putea să aibă 35 milioane de ani. 0:17:20.000,0:17:22.000 E mult timp disponibil ca o strategie 0:17:22.000,0:17:25.000 să poată fi schimbată,[br]e foarte, foarte veche. 0:17:25.000,0:17:27.290 Ce știm despre alte strategii[br]vechi ca aceasta? 0:17:27.290,0:17:30.686 Un lucru pe care îl știm e că ele[br]tind să fie foarte greu de depășit. 0:17:30.686,0:17:32.840 Gândiți-vă la predilecția[br]noastră evolutivă 0:17:32.840,0:17:36.120 de a mânca lucruri dulci, lucruri grase[br]cum ar fi plăcinta cu brânză. 0:17:36.120,0:17:37.380 Nu poți să oprești asta. 0:17:37.380,0:17:40.240 Nu poți să spui:[br]„Nu, nu, nu. E dezgustător”. 0:17:40.240,0:17:42.000 Suntem construiți diferit. 0:17:42.000,0:17:44.000 Îl percepem ca pe un lucru bun[br]după care să ne ghidăm. 0:17:44.000,0:17:46.000 Estimarea mea este că același lucru o să fie adevărat 0:17:46.000,0:17:48.000 când oamenii percep 0:17:48.000,0:17:50.000 decizii financiare diferite. 0:17:50.000,0:17:52.000 Când îți privești capitalul că intră în zona roșie, 0:17:52.000,0:17:54.000 când îți vezi prețul casei mergând în jos, 0:17:54.000,0:17:56.000 nu o să poți vedea asta 0:17:56.000,0:17:58.000 decât în termeni evoluționiști. 0:17:58.000,0:18:00.000 Asta înseamnă că erorile cognitive 0:18:00.000,0:18:02.000 care îi fac pe investitori să nu fie performanți, 0:18:02.000,0:18:04.000 care duc la criza prescrierilor 0:18:04.000,0:18:06.000 vor fi foarte greu de depășit. 0:18:06.000,0:18:08.000 Așa că, vești proaste. Întrebarea este: sunt și vești bune? 0:18:08.000,0:18:10.000 Eu ar fi trebuit să fiu aici spunându-vă veștile bune. 0:18:10.000,0:18:12.000 Păi, veștile bune, cred, 0:18:12.000,0:18:14.000 sunt ceea ce am zis la începutul prezentării, 0:18:14.000,0:18:16.000 că oamenii nu sunt doar deștepți; 0:18:16.000,0:18:18.000 inteligența noastră inspiră 0:18:18.000,0:18:21.000 restul animalelor din biosferă. 0:18:21.000,0:18:24.000 Suntem așa de buni la depășirea limitărilor biologice – 0:18:24.000,0:18:26.000 știți, am zburat până aici într-un avion. 0:18:26.000,0:18:28.000 Nu a trebuit să încerc să dau din aripi. 0:18:28.000,0:18:31.000 Port lentile de contact acum ca să vă văd pe toți. 0:18:31.000,0:18:34.000 Nu trebuie să mă bazez pe prezbitismul meu. 0:18:34.000,0:18:36.000 Avem de fapt toate aceste cazuri 0:18:36.000,0:18:39.000 în care ne depășim limitările biologice 0:18:39.000,0:18:42.000 prin tehnologie și alte metode, aparent foarte ușor. 0:18:42.000,0:18:45.000 Dar trebuie să recunoastem că avem aceste limitări. 0:18:45.000,0:18:47.000 Și uite care e treaba. 0:18:47.000,0:18:49.000 Camus a spus odată că „Omul este singura specie 0:18:49.000,0:18:52.000 care refuză să fie ceea ce este cu adevărat.” 0:18:52.000,0:18:54.000 Dar ironia e că 0:18:54.000,0:18:56.000 doar recunoscându-ne limitările 0:18:56.000,0:18:58.000 le putem depăși cu adevărat. 0:18:58.000,0:19:01.000 Speranța e că toți vă veți gândi la limitările voastre, 0:19:01.000,0:19:04.000 nu neapărat ca de nedepășit, 0:19:04.000,0:19:06.000 dar ca să le recunoașteți, să le acceptați 0:19:06.000,0:19:09.000 și să folosiți apoi lumea proiectării pentru a le remedia. 0:19:09.000,0:19:12.000 Aceasta s-ar putea să fie singura metodă prin care am putea 0:19:12.000,0:19:14.000 să ne atingem potențialul uman 0:19:14.000,0:19:17.000 și să fim cu adevărat specia nobilă care sperăm să fim. 0:19:17.000,0:19:19.000 Vă mulțumesc. 0:19:19.000,0:19:24.000 (Aplauze)