1 00:00:02,000 --> 00:00:04,560 Vreau să îmi încep prezentarea cu două observații 2 00:00:04,560 --> 00:00:06,420 despre specia umană. 3 00:00:06,420 --> 00:00:09,740 Prima observație este ceva ce ați putea crede că e chiar evident, 4 00:00:09,740 --> 00:00:11,675 anume că specia noastră, Homo Sapiens, 5 00:00:11,675 --> 00:00:13,938 e foarte, foarte deșteaptă – 6 00:00:13,938 --> 00:00:15,487 adică, ridicol de deșteaptă – 7 00:00:15,487 --> 00:00:17,070 toți faceți lucruri 8 00:00:17,070 --> 00:00:20,000 pe care nicio altă specie de pe planetă nu le mai face. 9 00:00:20,000 --> 00:00:22,000 Și asta, bineînțeles, 10 00:00:22,000 --> 00:00:24,569 nu e probabil prima dată când v-ați dat seama de asta. 11 00:00:24,569 --> 00:00:27,897 Firește, pe lângă deșteptăciune, mai avem și extrem de mult orgoliu. 12 00:00:27,897 --> 00:00:30,580 Deci ne place să scoatem în evidență că suntem deștepți. 13 00:00:30,580 --> 00:00:32,660 Aș putea să apelez la orice om inteligent 14 00:00:32,660 --> 00:00:34,430 de la Shakespeare la Stephen Colbert 15 00:00:34,430 --> 00:00:35,640 pentru a sugera 16 00:00:35,640 --> 00:00:38,310 că suntem nobili în gândire și nelimitați în înzestrări 17 00:00:38,310 --> 00:00:40,980 și un pic mai minunați decât orice altceva de pe planetă 18 00:00:40,980 --> 00:00:43,000 când vorbim de creier. 19 00:00:43,000 --> 00:00:46,070 Dar, bineînțeles, există o a doua observație despre specia umană 20 00:00:46,070 --> 00:00:47,985 pe care vreau să mă concentrez mai mult, 21 00:00:47,985 --> 00:00:50,500 și aceasta e că chiar dacă suntem deștepți, 22 00:00:50,500 --> 00:00:52,390 câteodată unic de deștepți, 23 00:00:52,390 --> 00:00:55,460 putem să fim incredibil, incredibil de proști 24 00:00:55,460 --> 00:00:58,180 când vine vorba de unele aspecte ale luării deciziilor. 25 00:00:58,180 --> 00:01:00,000 Văd multe zâmbete în public. 26 00:01:00,000 --> 00:01:02,301 Stați liniștiți, nu voi da nume 27 00:01:02,301 --> 00:01:04,000 ca exemplu de greșeli. 28 00:01:04,000 --> 00:01:06,000 Dar bineînțeles, numai în ultimii doi ani 29 00:01:06,000 --> 00:01:09,230 am observat câteva exemple nemaiîntâlnite de prostie omenească. 30 00:01:09,230 --> 00:01:12,000 Și am văzut cum uneltele pe care doar noi le facem 31 00:01:12,000 --> 00:01:14,314 ca să luăm resursele din mediul înconjurător 32 00:01:14,314 --> 00:01:16,000 ne explodează în față. 33 00:01:16,000 --> 00:01:18,880 Am urmărit piețele financiare pe care doar noi le creăm – 34 00:01:18,880 --> 00:01:21,380 aceste piețe care ar fi trebuit să fie inofensive – 35 00:01:21,380 --> 00:01:23,000 am văzut cum s-au prăbușit. 36 00:01:23,000 --> 00:01:25,000 Dar ambele exemple rușinoase, 37 00:01:25,000 --> 00:01:28,000 nu evidențiază ce este cel mai rușinos 38 00:01:28,000 --> 00:01:30,000 despre greșelile pe care le fac oamenii, 39 00:01:30,000 --> 00:01:33,000 și anume că ne-ar plăcea să credem că greșelile noastre 40 00:01:33,000 --> 00:01:35,000 sunt doar din cauza câtorva „mere stricate” 41 00:01:35,000 --> 00:01:38,000 sau a două-trei decizii demne de cascadorii râsului. 42 00:01:38,000 --> 00:01:41,000 Dar se pare că sociologii află 43 00:01:41,000 --> 00:01:44,000 cei mai mulți dintre noi, puși în anumite contexte, 44 00:01:44,000 --> 00:01:47,000 vom face anumite greșeli. 45 00:01:47,000 --> 00:01:49,000 Erorile pe care le facem sunt predictibile. 46 00:01:49,000 --> 00:01:51,000 Le facem iar și iar. 47 00:01:51,000 --> 00:01:53,510 Și chiar sunt imune la o mulțime de dovezi. 48 00:01:53,510 --> 00:01:55,000 Când primim reacții negative, 49 00:01:55,000 --> 00:01:58,000 tot avem tendința de a face aceleași greșeli, 50 00:01:58,000 --> 00:02:00,180 data viitoare când suntem în același context. 51 00:02:00,180 --> 00:02:02,480 Și asta a fost o adevărată problemă pentru mine, 52 00:02:02,480 --> 00:02:04,570 în calitate de cercetător al naturii umane. 53 00:02:04,570 --> 00:02:06,600 Lucrul de care sunt cel mai curioasă 54 00:02:06,600 --> 00:02:09,000 e cum poate o specie așa inteligentă ca a noastră 55 00:02:09,000 --> 00:02:11,000 să facă greșeli atât de grave 56 00:02:11,000 --> 00:02:13,000 și atât de consecvente tot timpul? 57 00:02:13,000 --> 00:02:16,240 Suntem cei mai deștepți, de ce nu putem să rezolvăm problema asta? 58 00:02:16,240 --> 00:02:19,000 Într-un fel, de unde apar greșelile noastre? 59 00:02:19,000 --> 00:02:22,390 Și după ce m-am gândit puțin la asta, am venit cu câteva posibilități. 60 00:02:22,390 --> 00:02:25,000 O posibilitate e că de fapt nu e vina noastră. 61 00:02:25,000 --> 00:02:27,000 Pentru că suntem o specie isteață, 62 00:02:27,000 --> 00:02:29,000 putem să creăm tot felul de medii 63 00:02:29,000 --> 00:02:31,000 care sunt extrem de complicate, 64 00:02:31,000 --> 00:02:34,000 uneori prea complicate ca să le înțelegem, 65 00:02:34,000 --> 00:02:36,000 cu toate că noi le-am creat. 66 00:02:36,000 --> 00:02:38,420 Facem piețe financiare care sunt super complexe. 67 00:02:38,420 --> 00:02:41,000 Facem credite ipotecare cu care nu ne descurcăm. 68 00:02:41,000 --> 00:02:44,270 Și, bineînțeles, dacă suntem puși în medii în care nu ne descurcăm, 69 00:02:44,270 --> 00:02:48,000 într-un fel e logic dacă greșim unele lucruri. 70 00:02:48,000 --> 00:02:50,650 Dacă ar fi fost așa, am fi avut o soluție foarte simplă 71 00:02:50,650 --> 00:02:52,000 la problema erorii umane. 72 00:02:52,000 --> 00:02:54,000 Am fi spus, bine, hai să descoperim 73 00:02:54,000 --> 00:02:56,360 tipurile de tehnologii cu care nu ne descurcăm, 74 00:02:56,360 --> 00:02:58,000 mediile care sunt dăunătoare – 75 00:02:58,000 --> 00:03:00,250 scăpăm de astea, proiectăm lucrurile mai bine, 76 00:03:00,250 --> 00:03:02,000 și vom fi specia aceea nobilă 77 00:03:02,000 --> 00:03:04,000 care ne așteptăm să fim. 78 00:03:04,000 --> 00:03:07,306 Dar mai e o posibilitate care mi se pare un pic mai îngrijorătoare: 79 00:03:07,306 --> 00:03:10,000 poate nu mediile sunt stricate. 80 00:03:10,000 --> 00:03:13,000 Poate chiar noi suntem construiți prost. 81 00:03:13,000 --> 00:03:15,000 Asta e o idee care mi-a venit 82 00:03:15,000 --> 00:03:18,420 când am văzut felul în care sociologii au învățat despre erorile umane. 83 00:03:18,420 --> 00:03:21,000 Și ce vedem e că oamenii continuă să facă greșeli 84 00:03:21,000 --> 00:03:24,000 în exact același fel, la nesfârșit. 85 00:03:24,000 --> 00:03:26,000 Pare că am suntem construiți 86 00:03:26,000 --> 00:03:28,000 să facem greșeli într-un anumit mod. 87 00:03:28,000 --> 00:03:31,000 Aceasta e o posibilitate pentru care îmi fac mai multe griji, 88 00:03:31,000 --> 00:03:33,310 pentru că, dacă noi suntem cei cu probleme, 89 00:03:33,310 --> 00:03:35,520 nu e clar ce facem ca să le rezolvăm. 90 00:03:35,520 --> 00:03:38,650 S-ar putea să trebuiască să acceptăm că suntem înclinați să greșim 91 00:03:38,650 --> 00:03:41,240 și să încercăm să proiectăm lucruri care să evite asta. 92 00:03:41,240 --> 00:03:44,110 Asta e întrebarea la care am vrut să ajung cu studenții mei. 93 00:03:44,110 --> 00:03:46,640 Cum facem diferența dintre posibilitatea unu și doi? 94 00:03:46,640 --> 00:03:48,000 Avem nevoie de o populație 95 00:03:48,000 --> 00:03:50,580 care e în principiu deșteaptă, poate lua multe decizii, 96 00:03:50,580 --> 00:03:53,133 dar nu are acces la niciun sistem pe care îl avem noi, 97 00:03:53,133 --> 00:03:55,510 oricare dintre lucrurile care ne-ar putea strica – 98 00:03:55,510 --> 00:03:57,040 fără tehnologie umană, cultură, 99 00:03:57,040 --> 00:03:58,480 poate chiar nici limbaj uman. 100 00:03:58,480 --> 00:04:00,300 Și de aceea am apelat la acești tipi. 101 00:04:00,300 --> 00:04:03,000 Aceștia sunt indivizii cu care lucrez. E un capucin maro. 102 00:04:03,000 --> 00:04:05,000 Acestea sunt platiriene, 103 00:04:05,000 --> 00:04:07,190 ce înseamnă că s-au despărțit de ramura umană 104 00:04:07,190 --> 00:04:09,000 acum 35 milioane de ani. 105 00:04:09,000 --> 00:04:11,320 Înseamnă că stră, stră, stră – 106 00:04:11,320 --> 00:04:13,000 cu vreo cinci milioane de „stră” – 107 00:04:13,000 --> 00:04:15,970 străbunica voastră a fost probabil aceeași stră, stră, stră, 108 00:04:15,970 --> 00:04:17,920 străbunică, cu cinci milioane de „stră” 109 00:04:17,920 --> 00:04:19,330 ca a lui Holly, cea de aici. 110 00:04:19,330 --> 00:04:22,270 Puteți să vă consolați cu ideea că e o rudă foarte îndepărtată 111 00:04:22,270 --> 00:04:24,000 cu toate că evoluționistă. 112 00:04:24,000 --> 00:04:26,000 Totuși, vestea bună despre Holly 113 00:04:26,000 --> 00:04:28,820 e că nu are aceleași tehnologii pe care le avem noi. 114 00:04:28,820 --> 00:04:32,000 E isteață, e drăguță și o primată, 115 00:04:32,000 --> 00:04:34,710 dar îi lipsesc lucrurile care credem că ne dau peste cap. 116 00:04:34,710 --> 00:04:36,560 Așa că e subiectul perfect de testat. 117 00:04:36,560 --> 00:04:39,120 Dacă am pune-o pe Holly în același context ca oamenii? 118 00:04:39,120 --> 00:04:41,000 Va face aceleași greșeli ca și noi? 119 00:04:41,000 --> 00:04:43,000 Va învăța din ele? 120 00:04:43,000 --> 00:04:45,000 Asta ne-am hotărât să facem. 121 00:04:45,000 --> 00:04:48,100 Eu și studenții mei ne-am entuziasmat foarte tare acum câțiva ani. 122 00:04:48,100 --> 00:04:50,210 Am zis, bine, să îi dăm probleme lui Holly, 123 00:04:50,210 --> 00:04:51,410 să vedem dacă greșește. 124 00:04:51,410 --> 00:04:54,000 Prima problemă e de unde să începem? 125 00:04:54,000 --> 00:04:56,580 Pentru că e minunat pentru noi, dar rău pentru oameni. 126 00:04:56,580 --> 00:04:58,530 Facem multe greșeli în diverse contexte. 127 00:04:58,530 --> 00:05:00,000 De unde să începem? 128 00:05:00,000 --> 00:05:03,240 Și pentru că am început asta la începutul crizei financiare, 129 00:05:03,240 --> 00:05:05,600 când prescrierile ipotecare erau pe prima pagină, 130 00:05:05,600 --> 00:05:07,000 am zis că poate ar trebui 131 00:05:07,000 --> 00:05:09,000 să începem în domeniul financiar. 132 00:05:09,000 --> 00:05:12,170 Poate ar trebui să analizăm la deciziile economice ale maimuțelor 133 00:05:12,170 --> 00:05:15,400 și să încercăm să vedem dacă fac aceleași greșeli ca noi. 134 00:05:15,400 --> 00:05:17,649 Desigur, atunci am dat de a doua problemă – 135 00:05:17,649 --> 00:05:19,000 un pic mai metodologică – 136 00:05:19,000 --> 00:05:21,000 aceea că, poate voi nu știți, 137 00:05:21,000 --> 00:05:24,000 dar maimuțele nu folosesc bani. Știu, nu le-ați cunoscut. 138 00:05:24,000 --> 00:05:26,381 Dar de asta ele nu stau la coadă în spatele vostru 139 00:05:26,381 --> 00:05:29,000 la alimentară sau la bancomat – ele nu fac asta. 140 00:05:29,000 --> 00:05:32,000 Așa că aveam o mică problemă. 141 00:05:32,000 --> 00:05:34,000 Cum să le cerem bani maimuțelor 142 00:05:34,000 --> 00:05:36,000 dacă ele nu îi folosesc? 143 00:05:36,000 --> 00:05:38,000 Și am zis, poate ar trebui 144 00:05:38,000 --> 00:05:40,000 și să le învățăm să folosească banii. 145 00:05:40,000 --> 00:05:42,000 Și asta am și făcut. 146 00:05:42,000 --> 00:05:45,000 Ce vedeți aici e prima unitate monetară neomenească 147 00:05:45,000 --> 00:05:47,000 pe care o știu. 148 00:05:47,000 --> 00:05:49,550 Nu eram prea creativi când am început aceste studii, 149 00:05:49,550 --> 00:05:51,000 așa că l-am numit jeton. 150 00:05:51,000 --> 00:05:54,000 Dar asta e unitatea monetară învățată de maimuțele de la Yale 151 00:05:54,000 --> 00:05:56,000 să o folosească cu oamenii, 152 00:05:56,000 --> 00:05:59,000 și să cumpere diverse bucăți de mâncare. 153 00:05:59,000 --> 00:06:01,000 Nu pare mult – de fapt nici nu e mult. 154 00:06:01,000 --> 00:06:03,940 La fel ca mulți dintre banii noștri, e doar o bucată de metal. 155 00:06:03,940 --> 00:06:06,640 După cum știți cei care ați luat acasă bani din excursii, 156 00:06:06,640 --> 00:06:08,610 odată ajuns acasă nu mai valorează nimic. 157 00:06:08,610 --> 00:06:10,500 Era inutil și pentru maimuțe la început 158 00:06:10,500 --> 00:06:12,520 înainte să își dea seama ce pot face cu el. 159 00:06:12,520 --> 00:06:14,780 Prima dată când le-am dat monede în cuști, 160 00:06:14,780 --> 00:06:16,450 le-au luat, s-au uitat la ele. 161 00:06:16,450 --> 00:06:18,000 Erau ca niște lucruri stranii. 162 00:06:18,000 --> 00:06:20,000 Dar destul de repede, maimuțele au înțeles 163 00:06:20,000 --> 00:06:22,000 că puteau să predea aceste jetoane 164 00:06:22,000 --> 00:06:25,000 diverșilor oameni din laborator în schimbul hranei. 165 00:06:25,000 --> 00:06:27,601 Și vedeți aici una dintre maimuțe, Mayday, făcând asta. 166 00:06:27,601 --> 00:06:31,750 În poza A și B e puțin curioasă de aceste lucruri, nu le cunoaște. 167 00:06:31,750 --> 00:06:34,000 Un experimentator uman stă cu mâna întinsă 168 00:06:34,000 --> 00:06:37,000 și Mayday își dă seama imediat că omul vrea jetonul. 169 00:06:37,000 --> 00:06:39,000 Dă jetonul și primește niște mâncare. 170 00:06:39,000 --> 00:06:41,690 Se pare că nu doar Mayday, ci toate maimuțele se pricep 171 00:06:41,690 --> 00:06:43,440 să schimbe jetoane. 172 00:06:43,440 --> 00:06:45,600 Acesta e un scurt video. 173 00:06:45,600 --> 00:06:48,359 Aici este Mayday. Va da un jeton în schimbul mâncării 174 00:06:48,359 --> 00:06:51,000 și va aștepta mulțumită să-și primească mâncarea. 175 00:06:51,000 --> 00:06:53,700 Aici e Feli. El e masculul alfa; e destul de mare. 176 00:06:53,700 --> 00:06:56,650 Dar și el așteaptă răbdător, își primește mâncarea și continuă. 177 00:06:56,650 --> 00:06:58,368 Maimuțele sunt foarte pricepute. 178 00:06:58,368 --> 00:07:01,000 Sunt surprinzător de bune, fără prea mult antrenament. 179 00:07:01,000 --> 00:07:03,000 Le-am lăsat să-și dea seama singure. 180 00:07:03,000 --> 00:07:05,000 Întrebarea e: sunt la fel ca banii noștri? 181 00:07:05,000 --> 00:07:07,000 E o piață, 182 00:07:07,000 --> 00:07:09,000 sau am făcut un truc psihologic ciudat, 183 00:07:09,000 --> 00:07:11,000 convingând maimuțele să facă ceva, 184 00:07:11,000 --> 00:07:13,000 părând deștepte, fără să fie de fapt. 185 00:07:13,000 --> 00:07:16,000 Așa că am spus: ce ar face maimuțele în mod spontan 186 00:07:16,000 --> 00:07:19,300 dacă ar fi cu adevărat moneda lor, dacă i-ar folosi pe post de bani? 187 00:07:19,300 --> 00:07:21,000 V-ați putea să vi le imaginați 188 00:07:21,000 --> 00:07:23,000 făcând tot felul de lucruri inteligente 189 00:07:23,000 --> 00:07:26,370 pe care oamenii le fac atunci când tranzacționează bani între ei. 190 00:07:26,370 --> 00:07:29,000 Te-ai aștepta să înceapă să fie atente la preț, 191 00:07:29,000 --> 00:07:31,000 la cât de mult cumpără, 192 00:07:31,000 --> 00:07:34,000 să țină cumva minte câți bani au. 193 00:07:34,000 --> 00:07:36,000 Fac maimuțele ceva asemănător? 194 00:07:36,000 --> 00:07:39,000 Și așa a apărut piața maimuțelor. 195 00:07:39,000 --> 00:07:40,770 Modul în care funcționează 196 00:07:40,770 --> 00:07:44,175 e că maimuțele trăiesc de obicei într-un fel de grădină zoologică mare. 197 00:07:44,175 --> 00:07:46,000 Când li se face dor de niște dulciuri, 198 00:07:46,000 --> 00:07:48,000 le-am lăsat o ușă deschisă 199 00:07:48,000 --> 00:07:50,150 spre o incintă unde puteau să intre în piață. 200 00:07:50,150 --> 00:07:52,000 După ce intrau în piață, 201 00:07:52,000 --> 00:07:55,470 era mult mai amuzantă pentru maimuțe decât majoritatea piețelor omenești 202 00:07:55,470 --> 00:07:57,000 pentru că după ce intră 203 00:07:57,000 --> 00:07:59,340 un om le dădea un portofel mare plin de jetoane 204 00:07:59,340 --> 00:08:01,340 ca să poată să facă comerț cu jetoanele 205 00:08:01,340 --> 00:08:03,200 cu unul dintre cei doi oameni de aici, 206 00:08:03,200 --> 00:08:05,000 doi potențiali comercianți 207 00:08:05,000 --> 00:08:07,000 de la care se putea cumpăra. 208 00:08:07,000 --> 00:08:09,290 Comercianții erau studenți din laboratorul meu. 209 00:08:09,290 --> 00:08:11,500 S-au îmbrăcat diferit; erau oameni diferiți. 210 00:08:11,500 --> 00:08:14,000 Și, de-a lungul timpului au făcut același lucru 211 00:08:14,000 --> 00:08:16,000 astfel încât maimuțele să poată învăța, 212 00:08:16,000 --> 00:08:19,260 cine ce vinde și la ce preț, cine era de încredere, cine nu. 213 00:08:19,260 --> 00:08:21,480 Și puteți vedea că fiecare experimentator 214 00:08:21,480 --> 00:08:24,000 ține de fapt o mică farfurie galbenă. 215 00:08:24,000 --> 00:08:26,680 Asta poate primi maimuța pentru un singur jeton. 216 00:08:26,680 --> 00:08:28,100 Deci totul costă un jeton, 217 00:08:28,100 --> 00:08:30,970 dar câteodată unele jetoanele cumpără mai mult decât altele, 218 00:08:30,970 --> 00:08:32,520 mai mulți struguri decât altele. 219 00:08:32,520 --> 00:08:35,000 Vă voi arăta un video despre cum arata această piață. 220 00:08:35,000 --> 00:08:38,368 Au găuri în gem la nivelul lor, deoarece maimuțele sunt mai scunde. 221 00:08:38,368 --> 00:08:39,750 Aici este Honey. 222 00:08:39,750 --> 00:08:42,220 Așteaptă să se deschidă piața, e puțin nerăbdătoare. 223 00:08:42,220 --> 00:08:45,580 Deodată, se deschide piața. Alegerea ei: un strugure sau doi struguri. 224 00:08:45,580 --> 00:08:47,630 Honey e un foarte bun economist de piață, 225 00:08:47,630 --> 00:08:50,000 îl alege pe cel ce oferă mai mult. 226 00:08:50,000 --> 00:08:53,190 I-ar putea învăța pe consultanții noștri financiari câteva lucruri. 227 00:08:53,190 --> 00:08:54,440 Și nu doar Honey, 228 00:08:54,440 --> 00:08:57,000 majoritatea maimuțelor au ales oferta ce mai bună. 229 00:08:57,000 --> 00:08:59,360 și cu mâncarea cea mai bună. 230 00:08:59,360 --> 00:09:02,260 Când am introdus vânzările, maimuțele le-au acordat atenție. 231 00:09:02,260 --> 00:09:05,000 Chiar le păsa de jetonul lor. 232 00:09:05,000 --> 00:09:08,590 Cel mai surprinzător lucru a fost că atunci când am colaborat cu economiști 233 00:09:08,590 --> 00:09:11,460 pentru a analiza datele maimuțelor cu instrumente economice, 234 00:09:11,460 --> 00:09:14,384 s-au cam potrivit, nu doar calitativ, 235 00:09:14,384 --> 00:09:16,302 dar și cantitativ cu ce i-am văzut 236 00:09:16,302 --> 00:09:18,000 pe oameni făcând pe piața reală. 237 00:09:18,000 --> 00:09:20,670 Atât de mult încât dacă ai fi văzut numerele maimuțelor, 238 00:09:20,670 --> 00:09:23,995 nu ți-ai fi dat seama dacă sunt ale maimuțelor sau ale unor oamenilor. 239 00:09:23,995 --> 00:09:25,000 Și am crezut 240 00:09:25,000 --> 00:09:27,000 că am introdus ceva 241 00:09:27,000 --> 00:09:29,230 care, cel puțin pentru maimuțe și pentru noi, 242 00:09:29,230 --> 00:09:31,270 funcționează ca o valută financiară reală. 243 00:09:31,270 --> 00:09:34,000 Întrebarea e: și maimuțele greșesc în același mod ca noi? 244 00:09:34,000 --> 00:09:37,250 Deja văzusem în mod anecdotic niște semne că ar putea. 245 00:09:37,250 --> 00:09:39,770 Un lucru pe care nu l-am văzut pe piața maimuțelor 246 00:09:39,770 --> 00:09:41,470 a fost vreo dovadă de economisire, 247 00:09:41,470 --> 00:09:43,000 la fel ca specia noastră. 248 00:09:43,000 --> 00:09:45,670 Maimuțele au intrat pe piață, și-au cheltuit tot bugetul 249 00:09:45,670 --> 00:09:47,501 și apoi s-au întors. 250 00:09:47,501 --> 00:09:49,873 Celălalt lucru pe care l-am observat spontan, 251 00:09:49,873 --> 00:09:51,000 destul de jenant, 252 00:09:51,000 --> 00:09:53,000 e furtul spontan. 253 00:09:53,000 --> 00:09:56,000 Maimuțele furau jetoanele cu orice ocazie, 254 00:09:56,000 --> 00:09:58,000 între ele, câteodată de la noi, 255 00:09:58,000 --> 00:10:00,490 lucruri pe care nu le-am testat intenționat, 256 00:10:00,490 --> 00:10:02,480 dar pe care le-am observat spontan. 257 00:10:02,480 --> 00:10:04,000 Ne-am spus: asta e rău. 258 00:10:04,000 --> 00:10:06,000 Putem vedea dacă maimuțele 259 00:10:06,000 --> 00:10:09,000 fac exact aceleași lucruri prostești ca oamenii? 260 00:10:09,000 --> 00:10:11,000 Una dintre posibilități era să lăsăm 261 00:10:11,000 --> 00:10:13,400 sistemul financiar al maimuțelor să funcționeze 262 00:10:13,400 --> 00:10:16,539 și să vedem dacă în câțiva ani ne cheamă să le plătim datoriile. 263 00:10:16,539 --> 00:10:19,130 Eram puțin nerăbdători, așa că am grăbit lucrurile. 264 00:10:19,130 --> 00:10:21,420 Am spus: hai să le dăm maimuțelor 265 00:10:21,420 --> 00:10:23,000 aceleași probleme 266 00:10:23,000 --> 00:10:25,170 la care oamenii tind să greșească 267 00:10:25,170 --> 00:10:27,370 în anumite tipuri de încercări economice, 268 00:10:27,370 --> 00:10:29,500 sau anumite tipuri de experimente economice. 269 00:10:29,500 --> 00:10:32,430 Din moment ce cel mai bun mod de a vedea cum greșesc oamenii 270 00:10:32,430 --> 00:10:34,000 e să facem asta chiar noi, 271 00:10:34,000 --> 00:10:36,000 vă voi oferi și vouă un mic experiment 272 00:10:36,000 --> 00:10:38,920 ca să vă vedem propriile intuiții financiare în acțiune. 273 00:10:38,920 --> 00:10:42,000 Imaginați-vă că v-am dat fiecăruia 274 00:10:42,000 --> 00:10:45,357 o mie de dolari americani – deci 10 bancnote noi de o sută de dolari. 275 00:10:45,357 --> 00:10:47,000 Luați-i, puneți-i în buzunar 276 00:10:47,000 --> 00:10:49,420 și gândiți-vă o secundă ce ați face cu banii. 277 00:10:49,420 --> 00:10:51,460 Sunt ai voștri, puteți cumpăra ce vreți. 278 00:10:51,460 --> 00:10:53,000 Îi puteți donați, lua, etc. 279 00:10:53,000 --> 00:10:56,640 E minunat, dar aveți de făcut o alegere pentru a mai câștiga mai mulți bani. 280 00:10:56,640 --> 00:10:59,000 Aveți opțiunile: ori să riscați, 281 00:10:59,000 --> 00:11:01,370 caz în care voi arunca unul dintre aceste jetoane. 282 00:11:01,370 --> 00:11:03,740 Dacă este cap, mai primiți o mie de dolari. 283 00:11:03,740 --> 00:11:05,440 Dacă e pajură, nu primiți nimic. 284 00:11:05,440 --> 00:11:08,570 Deci aveți o șansă să câștigați mai mult, dar e destul de riscant. 285 00:11:08,570 --> 00:11:12,020 Cealaltă opțiune e o ofertă sigură. Cu siguranță o să primiți niște bani. 286 00:11:12,020 --> 00:11:13,253 O să vă dau 500 $. 287 00:11:13,253 --> 00:11:16,000 Puteți să-i băgați în portofel și să-i folosiți imediat. 288 00:11:16,000 --> 00:11:18,000 Observați care vă e intuiția. 289 00:11:18,000 --> 00:11:21,000 Cei mai mulți oameni merg pe opțiunea mai sigură. 290 00:11:21,000 --> 00:11:24,560 Cei mai mulți spun: „De ce să risc, dacă pot obține sigur 1.500 de dolari?” 291 00:11:24,560 --> 00:11:26,230 Pare un pariu bun. Asta voi face. 292 00:11:26,230 --> 00:11:28,000 Ați putea spune: „Nu-i irațional." 293 00:11:28,000 --> 00:11:30,320 Oamenii au o mică aversiune față de risc. Și ce? 294 00:11:30,320 --> 00:11:34,000 Partea cu „și ce?” apare când ne gândim la aceeași problemă 295 00:11:34,000 --> 00:11:36,000 pusă un pic diferit. 296 00:11:36,000 --> 00:11:38,000 Acum imaginați-vă că v-aș da fiecăruia 297 00:11:38,000 --> 00:11:41,000 2.000 dolari – 20 de bancnote de o sută de dolari. 298 00:11:41,000 --> 00:11:43,460 Acum puteți cumpăra de două ori mai mult ca înainte. 299 00:11:43,460 --> 00:11:45,540 Gândiți-vă cum ar fi să-i aveți în portofel. 300 00:11:45,540 --> 00:11:47,650 Și acum vă pun să faceți o altă alegere. 301 00:11:47,650 --> 00:11:49,090 Dar acum e un pic mai rău. 302 00:11:49,090 --> 00:11:52,540 Acum o să alegeți cum să pierdeți banii, 303 00:11:52,540 --> 00:11:54,290 dar aveți aceleași opțiuni. 304 00:11:54,290 --> 00:11:56,310 Puteți să alegeți o pierdere riscantă: 305 00:11:56,310 --> 00:11:59,000 dau cu banul, dacă e cap, pierdeți mult, 306 00:11:59,000 --> 00:12:02,000 dacă e pajură, nu pierdeți nimic, rămâneți cu toată suma, 307 00:12:02,000 --> 00:12:05,570 sau puteți să jucați la sigur, ceea ce înseamnă că băgați mâna în buzunar 308 00:12:05,570 --> 00:12:08,710 și îmi dați cinci dintre bancnotele de 100 de dolari. 309 00:12:08,710 --> 00:12:11,000 Și văd destule frunți încruntate aici. 310 00:12:11,000 --> 00:12:13,250 Deci probabil aveți aceeași intuiție 311 00:12:13,250 --> 00:12:15,000 ca subiecții testați în realitate: 312 00:12:15,000 --> 00:12:17,000 dacă li se prezintă aceste opțiuni, 313 00:12:17,000 --> 00:12:19,000 oamenii nu aleg să joace la sigur, 314 00:12:19,000 --> 00:12:21,000 ci tind să riște puțin. 315 00:12:21,000 --> 00:12:24,000 Motivul pentru care e irațional e că le-am dat oamenilor 316 00:12:24,000 --> 00:12:26,000 în ambele situații aceleași opțiuni. 317 00:12:26,000 --> 00:12:29,000 E o șansă din două pentru 1.000 sau 2.000, 318 00:12:29,000 --> 00:12:31,000 sau doar 1.500$ în mod sigur. 319 00:12:31,000 --> 00:12:34,000 Dar intuiția oamenilor despre cât risc să își asume 320 00:12:34,000 --> 00:12:36,395 variază în funcție de unde au început. 321 00:12:36,395 --> 00:12:38,000 Deci ce se întâmplă? 322 00:12:38,000 --> 00:12:40,220 Am observat că acesta pare să fie rezultatul 323 00:12:40,220 --> 00:12:43,379 a cel puțin două prejudecăți pe care le avem la nivel psihologic. 324 00:12:43,379 --> 00:12:46,680 Una este că ne e foarte greu să gândim în termeni absoluți. 325 00:12:46,680 --> 00:12:48,990 Trebuie să faci un efort ca să îți dai seama: 326 00:12:48,990 --> 00:12:50,403 o opțiune e o mie, 2.000; 327 00:12:50,403 --> 00:12:52,000 alta este 1.500. 328 00:12:52,000 --> 00:12:55,470 În schimb, ne pare foarte ușor să gândim în termeni relativi 329 00:12:55,470 --> 00:12:58,000 pe măsură ce opțiunile se schimbă. 330 00:12:58,000 --> 00:13:01,314 Și ne gândim: „Voi primi mai mult sa mai puțin.” 331 00:13:01,314 --> 00:13:03,450 Toate acestea sunt bune, cu excepția faptului 332 00:13:03,450 --> 00:13:05,320 că schimbările în diverse direcții 333 00:13:05,320 --> 00:13:07,470 chiar afectează dacă gândim sau nu 334 00:13:07,470 --> 00:13:09,190 că opțiunile sunt bune sau nu. 335 00:13:09,190 --> 00:13:11,350 Și asta ne duce la cea de-a doua prejudecată, 336 00:13:11,350 --> 00:13:13,690 pe care economiștii au numit-o frica de pierdere. 337 00:13:13,690 --> 00:13:16,221 Ideea e că urâm când lucrurile ajung la nivelul roșu. 338 00:13:16,221 --> 00:13:18,730 Nu ne place deloc când trebuie să pierdem niște bani. 339 00:13:18,730 --> 00:13:20,602 Și asta înseamnă că uneori ne vom 340 00:13:20,602 --> 00:13:22,470 schimba preferințele ca să evităm asta. 341 00:13:22,470 --> 00:13:24,270 Ce ați văzut în scenariul precedent 342 00:13:24,270 --> 00:13:25,830 e că subiecții riscă 343 00:13:25,830 --> 00:13:29,000 pentru că vor mica posibilitate să nu piardă nimic. 344 00:13:29,000 --> 00:13:31,460 Asta înseamnă că atunci când avem o mentală de risc, 345 00:13:31,460 --> 00:13:33,320 mă scuzați, o mentalitate de pierdere, 346 00:13:33,320 --> 00:13:35,000 ne asumăm mai multe riscuri, 347 00:13:35,000 --> 00:13:37,000 ceea ce poate fi îngrijorător. 348 00:13:37,000 --> 00:13:40,000 Aceste lucruri se manifestă în multe moduri negative la oameni. 349 00:13:40,000 --> 00:13:43,240 Din cauza lor investitorii așteaptă mai mult până să piardă capital, 350 00:13:43,240 --> 00:13:45,250 pentru că evaluează în termeni relativi. 351 00:13:45,250 --> 00:13:47,910 Din același motiv oamenii refuză să își vândă casa, 352 00:13:47,910 --> 00:13:49,850 pentru că nu vor să o vândă în pierdere. 353 00:13:49,850 --> 00:13:51,510 Întrebarea de care eram interesați 354 00:13:51,510 --> 00:13:53,480 e dacă maimuțele au aceleași prejudecăți. 355 00:13:53,480 --> 00:13:56,160 Dacă avem aceleași scenarii pe piața maimuțelor, 356 00:13:56,160 --> 00:13:58,170 vor face și ele aceleași lucruri? 357 00:13:58,170 --> 00:14:00,230 Așa că le-am cerut maimuțelor să aleagă 358 00:14:00,230 --> 00:14:03,540 între indivizi care erau siguri: făceau același lucru de fiecare dată, 359 00:14:03,540 --> 00:14:05,200 și indivizi care erau riscanți: 360 00:14:05,200 --> 00:14:07,240 făceau lucrurile diferit jumătate din timp. 361 00:14:07,240 --> 00:14:09,440 Și când le-am dat opțiuni care erau bonusuri, 362 00:14:09,440 --> 00:14:11,300 cum ați făcut voi în primul scenariu, 363 00:14:11,300 --> 00:14:13,800 astfel încât să mai aibă o șansă să obțină mai mult, 364 00:14:13,800 --> 00:14:16,000 sau în care experimentau pierderi: 365 00:14:16,000 --> 00:14:18,280 credeau că vor obține mai mult decât au obținut. 366 00:14:18,280 --> 00:14:19,690 Și așa arată. 367 00:14:19,690 --> 00:14:22,000 Le prezentam maimuțelor doi vânzători. 368 00:14:22,000 --> 00:14:25,146 Tipul din stânga și cel din dreapta încep cu o boabă de strugure, 369 00:14:25,146 --> 00:14:26,310 deci e destul de bine. 370 00:14:26,310 --> 00:14:28,220 Dar ei le vor da bonusuri maimuțelor. 371 00:14:28,220 --> 00:14:30,260 Cel din stânga e un bonus sigur. 372 00:14:30,260 --> 00:14:33,000 Mereu adaugă o boabă, deci le dă două. 373 00:14:33,000 --> 00:14:35,478 Cel din dreapta e un bonus riscant. 374 00:14:35,478 --> 00:14:38,530 Uneori maimuțele nu primesc niciun bonus, deci un bonus de zero. 375 00:14:38,530 --> 00:14:41,000 Câteodată maimuțele primesc două în plus, 376 00:14:41,000 --> 00:14:43,000 deci primesc trei boabe. 377 00:14:43,000 --> 00:14:45,440 Asta e aceeași alegere pe care ați avut-o și voi. 378 00:14:45,440 --> 00:14:48,000 Vor maimuțele să joace la sigur 379 00:14:48,000 --> 00:14:50,780 și vor alege vânzătorul care va face același lucru mereu, 380 00:14:50,780 --> 00:14:52,000 sau vor risca 381 00:14:52,000 --> 00:14:54,300 și vor încerca să primească un bonus mai mare, 382 00:14:54,300 --> 00:14:56,380 însă riscând să nu primească niciun bonus. 383 00:14:56,380 --> 00:14:58,000 Oamenii de aici au jucat la sigur. 384 00:14:58,000 --> 00:15:00,320 Se pare că și maimuțele joacă la sigur. 385 00:15:00,320 --> 00:15:02,460 Cantitativ și calitativ, 386 00:15:02,460 --> 00:15:04,410 ele aleg exact în același fel ca oamenii, 387 00:15:04,410 --> 00:15:06,310 când sunt testate în aceleași condiții. 388 00:15:06,310 --> 00:15:08,920 Ați putea spune că poate maimuțelor nu le place riscul. 389 00:15:08,920 --> 00:15:11,490 Poate trebuie să vedem cum se descurcă cu pierderile. 390 00:15:11,490 --> 00:15:13,320 Am făcut o a doua versiune a testului. 391 00:15:13,320 --> 00:15:15,220 Acum maimuțele întâlnesc două persoane 392 00:15:15,220 --> 00:15:16,470 care nu le dau bonusuri; 393 00:15:16,470 --> 00:15:18,570 le dau de fapt mai puțin decât s-ar aștepta. 394 00:15:18,570 --> 00:15:20,240 Și pare că încep cu o sumă mare. 395 00:15:20,240 --> 00:15:22,420 Sunt trei bobițe; maimuțele sunt entuziasmate. 396 00:15:22,420 --> 00:15:25,399 Dar acum află că le vor da mai puțin decât se așteaptă. 397 00:15:25,399 --> 00:15:27,360 Tipul din stânga e o pierdere sigură. 398 00:15:27,360 --> 00:15:30,000 De fiecare dată va lua una 399 00:15:30,000 --> 00:15:32,000 și le va da maimuțelor doar două. 400 00:15:32,000 --> 00:15:34,000 Tipul din dreapta e pierderea riscantă. 401 00:15:34,000 --> 00:15:37,000 Uneori nu ia nimic înapoi, așa că maimuțele sunt bucuroase, 402 00:15:37,000 --> 00:15:39,000 dar câteodată pierderile sunt mari, 403 00:15:39,000 --> 00:15:41,390 luând două pentru a-i da maimuței doar una. 404 00:15:41,390 --> 00:15:43,000 Deci ce fac maimuțele? 405 00:15:43,000 --> 00:15:45,400 Din nou, aceeași alegere; pot să joace la sigur 406 00:15:45,400 --> 00:15:48,000 pentru a primi de fiecare dată două boabe de strugure, 407 00:15:48,000 --> 00:15:51,000 sau pot să facă un pariu riscant și să aleagă între una și trei. 408 00:15:51,000 --> 00:15:54,320 Lucrul remarcabil e că atunci când le dai maimuțelor această alegere, 409 00:15:54,320 --> 00:15:56,550 ele fac același lucru irațional ca oamenii. 410 00:15:56,550 --> 00:15:58,500 Ele își asumă mia multe riscuri 411 00:15:58,500 --> 00:16:01,000 în funcție de cum e construit experimentul. 412 00:16:01,000 --> 00:16:03,490 Asta e o nebunie pentru că sugerează că și maimuțele 413 00:16:03,490 --> 00:16:05,410 evaluează lucrurile în termeni relativi 414 00:16:05,410 --> 00:16:08,868 și chiar tratează pierderile diferit de câștiguri. 415 00:16:08,868 --> 00:16:10,613 Așadar, ce înseamnă toate astea? 416 00:16:10,613 --> 00:16:12,436 Ce am arătat e că, în primul rând, 417 00:16:12,436 --> 00:16:14,690 putem să le dăm maimuțelor bani 418 00:16:14,690 --> 00:16:16,739 și fac lucruri similare cu ei. 419 00:16:16,739 --> 00:16:19,180 Fac unele lucruri deștepte pe care le facem și noi, 420 00:16:19,180 --> 00:16:20,730 și unele lucruri nu prea bune, 421 00:16:20,730 --> 00:16:22,000 cum ar fi furatul. 422 00:16:22,000 --> 00:16:24,680 Dar ele fac și unele lucruri iraționale pe care le facem. 423 00:16:24,680 --> 00:16:26,569 În mod sistematic greșesc 424 00:16:26,569 --> 00:16:28,000 și în același mod ca noi. 425 00:16:28,000 --> 00:16:30,190 Acesta e primul mesaj de reținut, 426 00:16:30,190 --> 00:16:32,230 dacă la începutul prezentării v-ați gândit: 427 00:16:32,230 --> 00:16:35,297 Ajung acasă și îmi angajez un capucin drept consultant financiar. 428 00:16:35,297 --> 00:16:36,236 Sunt mai drăguți... 429 00:16:36,236 --> 00:16:38,760 Nu faceți asta; și ei vor fi probabil la fel de proști 430 00:16:38,760 --> 00:16:41,000 ca cel uman pe care îl aveți deja. 431 00:16:41,000 --> 00:16:43,180 Deci, un pic mai rău... Scuze, scuze, scuze. 432 00:16:43,180 --> 00:16:45,290 Un pic mai rău pentru investitorii maimuțe. 433 00:16:45,290 --> 00:16:48,190 Dar motivul pentru care râdeți e că e rău și pentru oameni. 434 00:16:48,190 --> 00:16:51,000 Pentru că am răspuns la întrebarea cu care am început. 435 00:16:51,000 --> 00:16:53,591 Am vrut să vedem de unde vin aceste tipuri de erori. 436 00:16:53,591 --> 00:16:55,590 Și am început cu speranța că poate putem 437 00:16:55,590 --> 00:16:57,621 cumva să ne reglăm instituțiile financiare, 438 00:16:57,621 --> 00:17:00,000 să ne reglăm tehnologiile ca să fim mai buni. 439 00:17:00,000 --> 00:17:03,000 Dar am aflat e că aceste prejudecăți sunt o parte din noi. 440 00:17:03,000 --> 00:17:05,600 De fapt, ar putea fi cauzate chiar de natura 441 00:17:05,600 --> 00:17:07,120 istoriei noastre evolutive. 442 00:17:07,120 --> 00:17:09,000 Și poate nu doar oamenii 443 00:17:09,000 --> 00:17:11,440 din partea dreaptă a acestui lanț sunt iraționali. 444 00:17:11,440 --> 00:17:13,424 Poate că e irațional pe toată lungimea. 445 00:17:13,424 --> 00:17:16,000 Și asta, dacă credem rezultatele cu capucinii, 446 00:17:16,000 --> 00:17:18,000 înseamnă că aceste strategii iraționale 447 00:17:18,000 --> 00:17:20,000 ar putea să aibă 35 milioane de ani. 448 00:17:20,000 --> 00:17:22,000 E mult timp disponibil ca o strategie 449 00:17:22,000 --> 00:17:25,000 să poată fi schimbată, e foarte, foarte veche. 450 00:17:25,000 --> 00:17:27,290 Ce știm despre alte strategii vechi ca aceasta? 451 00:17:27,290 --> 00:17:30,686 Un lucru pe care îl știm e că ele tind să fie foarte greu de depășit. 452 00:17:30,686 --> 00:17:32,840 Gândiți-vă la predilecția noastră evolutivă 453 00:17:32,840 --> 00:17:36,120 de a mânca lucruri dulci, lucruri grase cum ar fi plăcinta cu brânză. 454 00:17:36,120 --> 00:17:37,380 Nu poți să oprești asta. 455 00:17:37,380 --> 00:17:40,240 Nu poți să spui: „Nu, nu, nu. E dezgustător”. 456 00:17:40,240 --> 00:17:42,000 Suntem construiți diferit. 457 00:17:42,000 --> 00:17:44,000 Îl percepem ca pe un lucru bun după care să ne ghidăm. 458 00:17:44,000 --> 00:17:46,000 Estimarea mea este că același lucru o să fie adevărat 459 00:17:46,000 --> 00:17:48,000 când oamenii percep 460 00:17:48,000 --> 00:17:50,000 decizii financiare diferite. 461 00:17:50,000 --> 00:17:52,000 Când îți privești capitalul că intră în zona roșie, 462 00:17:52,000 --> 00:17:54,000 când îți vezi prețul casei mergând în jos, 463 00:17:54,000 --> 00:17:56,000 nu o să poți vedea asta 464 00:17:56,000 --> 00:17:58,000 decât în termeni evoluționiști. 465 00:17:58,000 --> 00:18:00,000 Asta înseamnă că erorile cognitive 466 00:18:00,000 --> 00:18:02,000 care îi fac pe investitori să nu fie performanți, 467 00:18:02,000 --> 00:18:04,000 care duc la criza prescrierilor 468 00:18:04,000 --> 00:18:06,000 vor fi foarte greu de depășit. 469 00:18:06,000 --> 00:18:08,000 Așa că, vești proaste. Întrebarea este: sunt și vești bune? 470 00:18:08,000 --> 00:18:10,000 Eu ar fi trebuit să fiu aici spunându-vă veștile bune. 471 00:18:10,000 --> 00:18:12,000 Păi, veștile bune, cred, 472 00:18:12,000 --> 00:18:14,000 sunt ceea ce am zis la începutul prezentării, 473 00:18:14,000 --> 00:18:16,000 că oamenii nu sunt doar deștepți; 474 00:18:16,000 --> 00:18:18,000 inteligența noastră inspiră 475 00:18:18,000 --> 00:18:21,000 restul animalelor din biosferă. 476 00:18:21,000 --> 00:18:24,000 Suntem așa de buni la depășirea limitărilor biologice – 477 00:18:24,000 --> 00:18:26,000 știți, am zburat până aici într-un avion. 478 00:18:26,000 --> 00:18:28,000 Nu a trebuit să încerc să dau din aripi. 479 00:18:28,000 --> 00:18:31,000 Port lentile de contact acum ca să vă văd pe toți. 480 00:18:31,000 --> 00:18:34,000 Nu trebuie să mă bazez pe prezbitismul meu. 481 00:18:34,000 --> 00:18:36,000 Avem de fapt toate aceste cazuri 482 00:18:36,000 --> 00:18:39,000 în care ne depășim limitările biologice 483 00:18:39,000 --> 00:18:42,000 prin tehnologie și alte metode, aparent foarte ușor. 484 00:18:42,000 --> 00:18:45,000 Dar trebuie să recunoastem că avem aceste limitări. 485 00:18:45,000 --> 00:18:47,000 Și uite care e treaba. 486 00:18:47,000 --> 00:18:49,000 Camus a spus odată că „Omul este singura specie 487 00:18:49,000 --> 00:18:52,000 care refuză să fie ceea ce este cu adevărat.” 488 00:18:52,000 --> 00:18:54,000 Dar ironia e că 489 00:18:54,000 --> 00:18:56,000 doar recunoscându-ne limitările 490 00:18:56,000 --> 00:18:58,000 le putem depăși cu adevărat. 491 00:18:58,000 --> 00:19:01,000 Speranța e că toți vă veți gândi la limitările voastre, 492 00:19:01,000 --> 00:19:04,000 nu neapărat ca de nedepășit, 493 00:19:04,000 --> 00:19:06,000 dar ca să le recunoașteți, să le acceptați 494 00:19:06,000 --> 00:19:09,000 și să folosiți apoi lumea proiectării pentru a le remedia. 495 00:19:09,000 --> 00:19:12,000 Aceasta s-ar putea să fie singura metodă prin care am putea 496 00:19:12,000 --> 00:19:14,000 să ne atingem potențialul uman 497 00:19:14,000 --> 00:19:17,000 și să fim cu adevărat specia nobilă care sperăm să fim. 498 00:19:17,000 --> 00:19:19,000 Vă mulțumesc. 499 00:19:19,000 --> 00:19:24,000 (Aplauze)