1 00:00:02,000 --> 00:00:04,000 Započet ću govor s dva opažanja 2 00:00:04,000 --> 00:00:06,000 o ljudskoj rasi. 3 00:00:06,000 --> 00:00:09,000 Prvo opažanje je nešto što ćete misliti da je očito, 4 00:00:09,000 --> 00:00:11,000 a govori o tome kako je naša vrsta Homo sapiens 5 00:00:11,000 --> 00:00:13,000 vrlo vrlo pametna – 6 00:00:13,000 --> 00:00:15,000 smiješno pametna – 7 00:00:15,000 --> 00:00:17,000 svi radite stvari 8 00:00:17,000 --> 00:00:20,000 koje druge vrste na ovom planetu ne rade. 9 00:00:20,000 --> 00:00:22,000 A ovo sigurno 10 00:00:22,000 --> 00:00:24,000 niste prvi put spoznali. 11 00:00:24,000 --> 00:00:27,000 Uz to što smo pametni, također smo i jako tašti. 12 00:00:27,000 --> 00:00:30,000 Volimo ukazivati na činjenicu da smo jako pametni. 13 00:00:30,000 --> 00:00:32,000 Mogu pokazati bilo koju sagu od 14 00:00:32,000 --> 00:00:34,000 Shakespearea do Stephena Colberta 15 00:00:34,000 --> 00:00:36,000 i ukazati stvari poput činjenice da 16 00:00:36,000 --> 00:00:38,000 smo plemeniti u razumu i neograničenih sposobnosti 17 00:00:38,000 --> 00:00:40,000 i da smo fenomenalniji od svega na planetu 18 00:00:40,000 --> 00:00:43,000 kada su u pitanju sve moždane stvari. 19 00:00:43,000 --> 00:00:45,000 Naravno, postoji drugo opažanje o ljudskoj rasi 20 00:00:45,000 --> 00:00:47,000 na kojeg bi se više usredotočila, 21 00:00:47,000 --> 00:00:49,000 i činjenica je, 22 00:00:49,000 --> 00:00:52,000 iako smo zapravo jako pametni, nekada jedinstveno pametni, 23 00:00:52,000 --> 00:00:55,000 možemo biti i nevjerojatno, nevjerojatno glupi 24 00:00:55,000 --> 00:00:58,000 u nekim aspektima donošenja odluka. 25 00:00:58,000 --> 00:01:00,000 Vidim mnogo zlobnih smješkanja. 26 00:01:00,000 --> 00:01:02,000 Ne brinite, neću prozvati nikoga posebno 27 00:01:02,000 --> 00:01:04,000 zbog bilo kojeg aspekta vaših vlastitih grešaka. 28 00:01:04,000 --> 00:01:06,000 Naravno, u protekle dvije godine 29 00:01:06,000 --> 00:01:09,000 vidjeli smo ove presedanske primjere ljudske nesposobnosti. 30 00:01:09,000 --> 00:01:12,000 Gledamo kako alati koje jedinstveno koristimo kako bismo 31 00:01:12,000 --> 00:01:14,000 izvukli sredstva iz našeg okoliša, 32 00:01:14,000 --> 00:01:16,000 eksplodiraju nama u lice. 33 00:01:16,000 --> 00:01:18,000 Gledali smo financijska tržišta koje stvaramo – 34 00:01:18,000 --> 00:01:21,000 tržišta koja bi trebala biti sigurna – 35 00:01:21,000 --> 00:01:23,000 gledali smo kako nam se ruše pred očima. 36 00:01:23,000 --> 00:01:25,000 Za oba ova sramotna primjera, mislim, 37 00:01:25,000 --> 00:01:28,000 ono što mislim je najsramotnije 38 00:01:28,000 --> 00:01:30,000 o pogrešci koju ljudi čine 39 00:01:30,000 --> 00:01:33,000 a to je da želimo misliti da su pogreške koje učinimo 40 00:01:33,000 --> 00:01:35,000 samo rezultat nekoliko loših jabuka 41 00:01:35,000 --> 00:01:38,000 ili nekoliko loših odluka dostojnih blogova. 42 00:01:38,000 --> 00:01:41,000 Ispada da ono što socijalni znanstvenici uče 43 00:01:41,000 --> 00:01:44,000 je kako većina nas, kada je stavljena u određeni kontekst, 44 00:01:44,000 --> 00:01:47,000 napravit će zapravo specifične pogreške. 45 00:01:47,000 --> 00:01:49,000 Greške koje radimo su zapravo predvidljive. 46 00:01:49,000 --> 00:01:51,000 Radimo ih opet i opet. 47 00:01:51,000 --> 00:01:53,000 Imune su na mnoge dokaze. 48 00:01:53,000 --> 00:01:55,000 Kada dobijemo negativnu kritiku, 49 00:01:55,000 --> 00:01:58,000 još uvijek, idući put kad smo suočeni s određenim kontekstom, 50 00:01:58,000 --> 00:02:00,000 radimo iste greške. 51 00:02:00,000 --> 00:02:02,000 Ovo je bila prava zagonetka za mene 52 00:02:02,000 --> 00:02:04,000 kao učenjaka o ljudskoj prirodi. 53 00:02:04,000 --> 00:02:06,000 Najviše sam znatiželjna o tome 54 00:02:06,000 --> 00:02:09,000 kako je vrsta koja je pametna kao mi, 55 00:02:09,000 --> 00:02:11,000 sposobna za tako loše 56 00:02:11,000 --> 00:02:13,000 i tako dosljedne pogreške cijelo vrijeme? 57 00:02:13,000 --> 00:02:16,000 Znate, najpametniji smo, zašto ne možemo ovo shvatiti? 58 00:02:16,000 --> 00:02:19,000 U neku ruku, odakle naše pogreške zapravo dolaze? 59 00:02:19,000 --> 00:02:22,000 Razmišljajući o ovome, vidim nekoliko različitih mogućnosti. 60 00:02:22,000 --> 00:02:25,000 Jedna mogućnost jest, u neku ruku, da nije zapravo naša krivnja. 61 00:02:25,000 --> 00:02:27,000 Jer smo pametna vrsta, 62 00:02:27,000 --> 00:02:29,000 možemo stvoriti svakakve okoline 63 00:02:29,000 --> 00:02:31,000 koje su super, super komplicirane, 64 00:02:31,000 --> 00:02:34,000 nekada previše komplicirane za nas da bismo shvatili, 65 00:02:34,000 --> 00:02:36,000 iako smo ih stvorili. 66 00:02:36,000 --> 00:02:38,000 Stvaramo financijska tržišta koja su jako komplicirana. 67 00:02:38,000 --> 00:02:41,000 Stvaramo uvjete za kredite s kojima se zapravo ne možemo nositi. 68 00:02:41,000 --> 00:02:44,000 Naravno, ako smo stavljeni u okoliš u kojem se ne možemo snaći, 69 00:02:44,000 --> 00:02:46,000 u neku ruku je logično da ćemo 70 00:02:46,000 --> 00:02:48,000 pogriješiti u nekim stvarima. 71 00:02:48,000 --> 00:02:50,000 Ako je u tome stvar, imamo jako lagano riješenje 72 00:02:50,000 --> 00:02:52,000 za problem ljudske greške. 73 00:02:52,000 --> 00:02:54,000 Rekli bismo, ok, hajdemo shvatiti 74 00:02:54,000 --> 00:02:56,000 vrste tehnologija s kojima se ne znamo nositi, 75 00:02:56,000 --> 00:02:58,000 koji su okoliši loši – 76 00:02:58,000 --> 00:03:00,000 riješimo se tih, dizajniramo stvari bolje, 77 00:03:00,000 --> 00:03:02,000 i bili bismo plemenita vrsta 78 00:03:02,000 --> 00:03:04,000 za kakvu se smatramo. 79 00:03:04,000 --> 00:03:07,000 Ali postoji druga mogućnost koju smatram malo više zabrinjavajućom, 80 00:03:07,000 --> 00:03:10,000 a to je da možda naši okoliši nisu zeznuti. 81 00:03:10,000 --> 00:03:13,000 Možda smo mi loše dizajnirani. 82 00:03:13,000 --> 00:03:15,000 Ovo je nagovještaj koji sam dobila 83 00:03:15,000 --> 00:03:18,000 gledajući načine na koje socijalni znanstvenici uče o ljudskim pogreškama. 84 00:03:18,000 --> 00:03:21,000 Vidimo da ljudi i dalje čine greške 85 00:03:21,000 --> 00:03:24,000 na jednake načine, opet i opet. 86 00:03:24,000 --> 00:03:26,000 Čini se kao da smo možda izgrađeni 87 00:03:26,000 --> 00:03:28,000 tako da činimo greške na određeni način. 88 00:03:28,000 --> 00:03:31,000 To je mogućnost oko koje se brinem malo više, 89 00:03:31,000 --> 00:03:33,000 jer, ako smo mi zbrkani, 90 00:03:33,000 --> 00:03:35,000 nije baš jasno kako ćemo se nositi s tim. 91 00:03:35,000 --> 00:03:38,000 Morat ćemo prihvatiti činjenicu da smo skloni pogreškama 92 00:03:38,000 --> 00:03:40,000 i pokušati dizajnirati stvari oko toga. 93 00:03:40,000 --> 00:03:43,000 Ovo je pitanje koje smo moji studenti i ja htjeli riješiti. 94 00:03:43,000 --> 00:03:46,000 Kako možemo odrediti razliku između prve i druge mogućnosti? 95 00:03:46,000 --> 00:03:48,000 Trebamo populaciju 96 00:03:48,000 --> 00:03:50,000 koja je pametna, može donositi puno odluka, 97 00:03:50,000 --> 00:03:52,000 ali nema pristupa nijednom sustavu kojeg imamo, 98 00:03:52,000 --> 00:03:54,000 bilo kojoj stvari koja nas može zeznuti – 99 00:03:54,000 --> 00:03:56,000 nikava ljudska tehnologija, ljudska kultura, 100 00:03:56,000 --> 00:03:58,000 možda čak ni ljudski jezik. 101 00:03:58,000 --> 00:04:00,000 Pa smo se okrenuli ovim tipovima ovdje. 102 00:04:00,000 --> 00:04:03,000 Ovo je jedan tip s kojim radim. Ovo je smeđi kapucin. 103 00:04:03,000 --> 00:04:05,000 Ovo su primati Novoga svijeta, 104 00:04:05,000 --> 00:04:07,000 što znači da su prekinuli s ljudskom granom 105 00:04:07,000 --> 00:04:09,000 prije 35 milijuna godina. 106 00:04:09,000 --> 00:04:11,000 To znači da je vaša pra pra pra pra pra pra – 107 00:04:11,000 --> 00:04:13,000 uz još oko pet milijuna "pra" -- 108 00:04:13,000 --> 00:04:15,000 baka, bila vjerojatno ista pra pra pra pra 109 00:04:15,000 --> 00:04:17,000 baka uz još pet milijuna "pra", 110 00:04:17,000 --> 00:04:19,000 kao i Hollyina. 111 00:04:19,000 --> 00:04:22,000 Stoga vam može biti utješna činjenica da je ovaj tip zapravo stvarno daleki, 112 00:04:22,000 --> 00:04:24,000 iako evolucijski, rođak. 113 00:04:24,000 --> 00:04:26,000 Dobre vijesti o Holly su da 114 00:04:26,000 --> 00:04:29,000 ona nema iste vrste tehnologije poput nas. 115 00:04:29,000 --> 00:04:32,000 Znate, pametna je, odvojeno biće, primat također, 116 00:04:32,000 --> 00:04:34,000 ali fale joj sve stvari za koje mislimo da bi nas mogle zeznuti. 117 00:04:34,000 --> 00:04:36,000 Ona je savršen testni primjerak. 118 00:04:36,000 --> 00:04:39,000 Što ako stavimo Holly u isti kontekst kao ljude? 119 00:04:39,000 --> 00:04:41,000 Hoće li učiniti iste greške kao mi? 120 00:04:41,000 --> 00:04:43,000 Hoće li naučiti iz njih? I tako dalje. 121 00:04:43,000 --> 00:04:45,000 Ovo je nešto što smo odlučili napraviti. 122 00:04:45,000 --> 00:04:47,000 Moji studenti i ja smo bili vrlo uzbuđeni oko toga prije par godina. 123 00:04:47,000 --> 00:04:49,000 Rekli smo, u redu, hajdemo, znate, baciti par problema na Holly, 124 00:04:49,000 --> 00:04:51,000 da vidimo hoće li uprskati. 125 00:04:51,000 --> 00:04:54,000 Prvi problem je, gdje da počnemo? 126 00:04:54,000 --> 00:04:56,000 Jer, dobro je za nas, ali loše za ljude. 127 00:04:56,000 --> 00:04:58,000 Radimo mnogo grešaka u mnogo različitih konteksta. 128 00:04:58,000 --> 00:05:00,000 Znate, gdje ćemo zapravo početi s ovim? 129 00:05:00,000 --> 00:05:03,000 I pošto smo započeli s ovim radom u vrijeme financijske krize, 130 00:05:03,000 --> 00:05:05,000 kada su gubici prava bili glavne vijesti, 131 00:05:05,000 --> 00:05:07,000 rekli smo, hm, možda bismo mogli 132 00:05:07,000 --> 00:05:09,000 početi u financijskoj domeni. 133 00:05:09,000 --> 00:05:12,000 Možda bismo mogli vidjeti donošenje ekonomskih odluka 134 00:05:12,000 --> 00:05:15,000 u majmuna i pokušati vidjeti rade li iste glupe stvari kao i mi. 135 00:05:15,000 --> 00:05:17,000 Naravno, tada smo udarili u drugi problem – 136 00:05:17,000 --> 00:05:19,000 više metodologijski – 137 00:05:19,000 --> 00:05:21,000 možda ne znate, 138 00:05:21,000 --> 00:05:24,000 ali majmuni zapravo ne koriste novac. Znam, niste ih upoznali. 139 00:05:24,000 --> 00:05:26,000 Ali zato, znate, nisu u redu iza vas 140 00:05:26,000 --> 00:05:29,000 u trgovini ili na bankomatu – znate, oni ne rade te stvari. 141 00:05:29,000 --> 00:05:32,000 Sada smo suočeni s malim problemom. 142 00:05:32,000 --> 00:05:34,000 Kako ćemo pitati majmune o novcu 143 00:05:34,000 --> 00:05:36,000 ako ga oni zapravo ne koriste? 144 00:05:36,000 --> 00:05:38,000 Rekli smo, možda bismo samo 145 00:05:38,000 --> 00:05:40,000 trebali naučiti majmune kako se koristo novac. 146 00:05:40,000 --> 00:05:42,000 To smo i napravili. 147 00:05:42,000 --> 00:05:45,000 Ovo što gledate ovdje je zapravo prva grupa znanih 148 00:05:45,000 --> 00:05:47,000 ne-ljudskih valuta. 149 00:05:47,000 --> 00:05:49,000 Nismo bili jako kreativni u to vrijeme kada smo počeli studiju, 150 00:05:49,000 --> 00:05:51,000 pa smo ih nazvali žetonima. 151 00:05:51,000 --> 00:05:54,000 Ali naše majmune na Yale-u smo naučili 152 00:05:54,000 --> 00:05:56,000 da koriste ovu valutu zajedno s ljudima, 153 00:05:56,000 --> 00:05:59,000 zapravo da kupe različite vrste hrane. 154 00:05:59,000 --> 00:06:01,000 Ne izgleda kao puno – zapravo, nije puno. 155 00:06:01,000 --> 00:06:03,000 Kao većina našeg novca, samo je komad metala. 156 00:06:03,000 --> 00:06:06,000 Vi koji ste ponijeli valute kući sa nekog putovanja znate, 157 00:06:06,000 --> 00:06:08,000 jednom kad dođete kući, zapravo su beskorisne. 158 00:06:08,000 --> 00:06:10,000 Bilo je beskorisno i majmunima 159 00:06:10,000 --> 00:06:12,000 dok nisu shvatili što mogu s njom. 160 00:06:12,000 --> 00:06:14,000 Kada smo im prvi put dali u njihovom ograđenom prostoru, 161 00:06:14,000 --> 00:06:16,000 zapravo su ih podigli i gledali u njih. 162 00:06:16,000 --> 00:06:18,000 Bile su to nekakve čudne stvari. 163 00:06:18,000 --> 00:06:20,000 Ali ubrzo, majmuni su shvatili 164 00:06:20,000 --> 00:06:22,000 da mogu dati te žetone 165 00:06:22,000 --> 00:06:25,000 različitim ljudima u laboratoriju u zamjenu za hranu. 166 00:06:25,000 --> 00:06:27,000 Vidite ovdje jednog našeg majmuna, Maydaya, kako radi to. 167 00:06:27,000 --> 00:06:30,000 A i B su točke gdje je ona malo 168 00:06:30,000 --> 00:06:32,000 znatiželjna oko tih stvari – ne zna. 169 00:06:32,000 --> 00:06:34,000 Ovdje je ruka ljudskog istraživača koja čeka, 170 00:06:34,000 --> 00:06:37,000 i Mayday je brzo shvatila, očito čovjek želi to. 171 00:06:37,000 --> 00:06:39,000 Preda mu žeton i dobije neku hranu. 172 00:06:39,000 --> 00:06:41,000 Ispalo je da ne samo Mayday, već svi su naši majmuni postali dobri 173 00:06:41,000 --> 00:06:43,000 u trgovanju žetonima sa ljudskim trgovcima. 174 00:06:43,000 --> 00:06:45,000 Evo kratki video kako je to izgledalo. 175 00:06:45,000 --> 00:06:48,000 Ovo je Mayday. Ona će zamijeniti žeton za hranu 176 00:06:48,000 --> 00:06:51,000 i sretno čekati i dobiti hranu. 177 00:06:51,000 --> 00:06:53,000 Ovo je Felix. Mislim. On je naš alfa mužjak; dosta je velik. 178 00:06:53,000 --> 00:06:56,000 Ali i on čeka strpljivo, dobije hranu i ode. 179 00:06:56,000 --> 00:06:58,000 Majmuni su postali jako dobri u ovome. 180 00:06:58,000 --> 00:07:01,000 Iznenađujuće su dobri u ovome sa jako malo treninga. 181 00:07:01,000 --> 00:07:03,000 Dopustili smo im da to pohvataju sami. 182 00:07:03,000 --> 00:07:05,000 Pitanje je: je li to slično ljudskom novcu? 183 00:07:05,000 --> 00:07:07,000 Je li to uopće tržište, 184 00:07:07,000 --> 00:07:09,000 ili smo uradili čudni psihološki trik 185 00:07:09,000 --> 00:07:11,000 s tim što smo natjerali majmune da urade nešto, 186 00:07:11,000 --> 00:07:13,000 izgledaju pametno, ali da nisu zapravo pametni. 187 00:07:13,000 --> 00:07:16,000 Rekli smo, što bi majmuni spontano napravili 188 00:07:16,000 --> 00:07:19,000 da je ovo njihova valuta, ako bi ju zaista koristili kao novac? 189 00:07:19,000 --> 00:07:21,000 Možete ih zapravo zamisliti kako 190 00:07:21,000 --> 00:07:23,000 rade sve pametne stvari 191 00:07:23,000 --> 00:07:26,000 kao i ljudi kada zamjenuju novac međusobno. 192 00:07:26,000 --> 00:07:29,000 Možda bi počeli opažati cijenu 193 00:07:29,000 --> 00:07:31,000 ili koliko će kupiti - 194 00:07:31,000 --> 00:07:34,000 pratiti gdje je njihov majmunski žeton. 195 00:07:34,000 --> 00:07:36,000 Rade li majmuni nešto slično tome? 196 00:07:36,000 --> 00:07:39,000 I tako je rođeno naše tržište za majmune. 197 00:07:39,000 --> 00:07:41,000 Način na koji to radi je da 198 00:07:41,000 --> 00:07:44,000 naši majmuni normalno žive u velikom ograđenom prostoru u zoološkom. 199 00:07:44,000 --> 00:07:46,000 Kada su imali žudnju za nekim poslasticama, 200 00:07:46,000 --> 00:07:48,000 dopustili smo im da uđu 201 00:07:48,000 --> 00:07:50,000 u malo manji ograđeni prostor u kojem su mogli ući na tržnicu. 202 00:07:50,000 --> 00:07:52,000 Ulazeći na tržište – 203 00:07:52,000 --> 00:07:54,000 bilo je to mnogo zabavnije tržište za majmune nego većina ljudskih tržišta, 204 00:07:54,000 --> 00:07:57,000 jer kad su majmuni ušli na tržište, 205 00:07:57,000 --> 00:07:59,000 čovjek bi im dao hrpu žetona 206 00:07:59,000 --> 00:08:01,000 kako bi mogli mijenjati žetone 207 00:08:01,000 --> 00:08:03,000 sa dva čovjeka tamo – 208 00:08:03,000 --> 00:08:05,000 dva različita ljudska trgovca 209 00:08:05,000 --> 00:08:07,000 od kojih su zapravo mogli kupiti stvari. 210 00:08:07,000 --> 00:08:09,000 Trgovci su bili studenti iz laboratorija. 211 00:08:09,000 --> 00:08:11,000 Različito su se obukli; bili su različiti ljudi. 212 00:08:11,000 --> 00:08:14,000 Nakon nekog vremena, radili su jednaku stvar 213 00:08:14,000 --> 00:08:16,000 kako bi majmuni mogli naučiti 214 00:08:16,000 --> 00:08:19,000 tko je prodao što po kojoj cijeni – znate, tko je bio pouzdan, tko nije, i tako dalje. 215 00:08:19,000 --> 00:08:21,000 Možete vidjeti kako je većina istraživača 216 00:08:21,000 --> 00:08:24,000 držala malu žutu posudu za hranu. 217 00:08:24,000 --> 00:08:26,000 I to je sve što majmun može dobiti za jedan žeton. 218 00:08:26,000 --> 00:08:28,000 Sve košta jedan žeton, 219 00:08:28,000 --> 00:08:30,000 ali kao što možete vidjeti, nekada neki žetoni kupe mnogo više nego ostali, 220 00:08:30,000 --> 00:08:32,000 nekada mnogo više zrna grožđa nego ostali. 221 00:08:32,000 --> 00:08:35,000 Dakle, pokazat ću vam kratak video o tome kako zaista izgleda ovo tržište. 222 00:08:35,000 --> 00:08:38,000 Ovako to vidi majmun. Majmuni su niži, dakle malo je niži. 223 00:08:38,000 --> 00:08:40,000 Ali ovdje je Honey. 224 00:08:40,000 --> 00:08:42,000 Ona nestrpljivo čeka da se dućan otvori. 225 00:08:42,000 --> 00:08:45,000 Odjednom, dućan se otvara. Ovo je njen izbor: jedan grozd ili dva grozda. 226 00:08:45,000 --> 00:08:47,000 Možete vidjeti Honey, veoma dobru ekonomisticu tržišta 227 00:08:47,000 --> 00:08:50,000 sa čovjekom koji daje više. 228 00:08:50,000 --> 00:08:52,000 Mogla bi naučiti naše financijske savjetnike nekim stvarima. 229 00:08:52,000 --> 00:08:54,000 Dakle, ne samo Honey, 230 00:08:54,000 --> 00:08:57,000 nego većina majmuna je otišla s onim koji je imao više. 231 00:08:57,000 --> 00:08:59,000 Većina majmuna je otišla s onima koji su imali bolju hranu. 232 00:08:59,000 --> 00:09:02,000 Kad smo predstavili rasprodaje, vidjeli smo da su majmuni obratili pažnju na to. 233 00:09:02,000 --> 00:09:05,000 Zaista su pazili na njihove majmunske dolare u obliku žetona. 234 00:09:05,000 --> 00:09:08,000 Iznenađujuće je bilo to što kada smo surađivali sa ekonomistima 235 00:09:08,000 --> 00:09:11,000 da zapravo pogledamo podatke koristeći ekonomske alate, 236 00:09:11,000 --> 00:09:14,000 oni su se zapravo podudarali, ne samo kvalitativno, 237 00:09:14,000 --> 00:09:16,000 već kvantitativno s onim što smo vidjeli 238 00:09:16,000 --> 00:09:18,000 da ljudi rade na pravoj tržnici. 239 00:09:18,000 --> 00:09:20,000 Čak toliko da kada ste vidjeli rezultate majmuna, 240 00:09:20,000 --> 00:09:23,000 niste mogli reći da li su to rezultati majmuna ili rezultati čovjeka na istom tržištu. 241 00:09:23,000 --> 00:09:25,000 I ono što smo zaista mislili da smo učinili 242 00:09:25,000 --> 00:09:27,000 je to da smo zaista predstavili nešto, 243 00:09:27,000 --> 00:09:29,000 što barem za majmune i nas, 244 00:09:29,000 --> 00:09:31,000 izgleda kao prava financijska valuta. 245 00:09:31,000 --> 00:09:34,000 Pitanje je: da li majmuni počinju brljati na isti način kao i mi? 246 00:09:34,000 --> 00:09:37,000 Pa, već smo vidjeli nekoliko zabavnih primjera koji idu tome u prilog. 247 00:09:37,000 --> 00:09:39,000 Jedna stvar koju nismo nikada vidjeli na majmunskoj tržnici 248 00:09:39,000 --> 00:09:41,000 je ta da nema nikakvog dokaza o štednji – 249 00:09:41,000 --> 00:09:43,000 znate, kao što to radi naša vrsta. 250 00:09:43,000 --> 00:09:45,000 Majmuni uđu na tržnicu, potroše sav svoj budžet 251 00:09:45,000 --> 00:09:47,000 i onda se vrate svima ostalima. 252 00:09:47,000 --> 00:09:49,000 Druga stvar koju smo također spontano vidjeli, 253 00:09:49,000 --> 00:09:51,000 dovoljno sramotno, 254 00:09:51,000 --> 00:09:53,000 je spontani dokaz o razbojništvu. 255 00:09:53,000 --> 00:09:56,000 Majmuni bi otkinuli žetone u svakoj raspoloživoj prilici – 256 00:09:56,000 --> 00:09:58,000 jedan od drugog, često od nas – 257 00:09:58,000 --> 00:10:00,000 znate, stvari za koje nismo nužno mislili da predstavljamo, 258 00:10:00,000 --> 00:10:02,000 ali stvari koje smo spontano vidjeli. 259 00:10:02,000 --> 00:10:04,000 Zatim smo rekli, ovo izgleda loše. 260 00:10:04,000 --> 00:10:06,000 Možemo li zaista vidjeti kako majmuni 261 00:10:06,000 --> 00:10:09,000 rade totalno iste glupe stvari kao i ljudi? 262 00:10:09,000 --> 00:10:11,000 Jedna mogućnost je da nekako pustimo 263 00:10:11,000 --> 00:10:13,000 da se majmunski financijski sistem odigra, 264 00:10:13,000 --> 00:10:15,000 znate, da vidimo da li bi nas zvali za nekoliko godina da ih izbavimo iz zatvora uz jamčevinu. 265 00:10:15,000 --> 00:10:17,000 Bili smo pomalo nestrpljivi pa smo željeli 266 00:10:17,000 --> 00:10:19,000 nekako ubrzati stvari. 267 00:10:19,000 --> 00:10:21,000 Pa smo rekli, hajdemo zaista dati majmunima 268 00:10:21,000 --> 00:10:23,000 istu vrstu problema 269 00:10:23,000 --> 00:10:25,000 u kojoj ljudi znaju pogriješiti 270 00:10:25,000 --> 00:10:27,000 u određenim vrstama ekonomskih izazova 271 00:10:27,000 --> 00:10:29,000 ili određenim vrstama ekonomskih eksperimenata. 272 00:10:29,000 --> 00:10:32,000 I tako, s obzirom da je najbolji način da vidimo kako ljudi griješe 273 00:10:32,000 --> 00:10:34,000 taj da to zapravo učinite sami, 274 00:10:34,000 --> 00:10:36,000 dat ću vam brzi eksperiment 275 00:10:36,000 --> 00:10:38,000 kako bi vidjeli vlastite financijske ustanove na djelu. 276 00:10:38,000 --> 00:10:40,000 Dakle, zamislite da sam upravo sada 277 00:10:40,000 --> 00:10:42,000 svakome od vas dala 278 00:10:42,000 --> 00:10:45,000 tisuću američkih dolara – dakle 10 svježih novčanica od sto dolara. 279 00:10:45,000 --> 00:10:47,000 Uzmite ih, stavite u novčanik 280 00:10:47,000 --> 00:10:49,000 i na sekundu pomislite što ćete učiniti s njima. 281 00:10:49,000 --> 00:10:51,000 Zato što je to sada vaše, možete kupiti što god poželite. 282 00:10:51,000 --> 00:10:53,000 Donirajte ih, uzmite ih i tako dalje. 283 00:10:53,000 --> 00:10:56,000 Zvuči odlično, ali dobili ste još jedan izbor da bi zaradili još više novaca. 284 00:10:56,000 --> 00:10:59,000 I evo vašeg izbora: možete riskirati, 285 00:10:59,000 --> 00:11:01,000 a u tom slučaju bacit ću jedan od ovih majmunskih žetona. 286 00:11:01,000 --> 00:11:03,000 Ako se okrene glava, dobit ćete tisuću dolara više. 287 00:11:03,000 --> 00:11:05,000 Ako se okrene pismo, nećete dobiti ništa. 288 00:11:05,000 --> 00:11:08,000 Dakle, to je šansa da dobijete više, ali je prilično riskantna. 289 00:11:08,000 --> 00:11:11,000 Vaša druga opcija je malo sigurnija. Sigurno ćete dobiti nešto novaca. 290 00:11:11,000 --> 00:11:13,000 Dat ću vam samo 500 dolara. 291 00:11:13,000 --> 00:11:16,000 Možete ih pospremiti u novčanik i odmah upotrijebiti. 292 00:11:16,000 --> 00:11:18,000 Pa vidite kuda vas vodi intuicija. 293 00:11:18,000 --> 00:11:21,000 Većina ljudi zapravo uzme opciju igranja na sigurno. 294 00:11:21,000 --> 00:11:24,000 Većina ljudi kaže, zašto bih riskirao kad mogu sigurno dobiti 1.500 dolara? 295 00:11:24,000 --> 00:11:26,000 To izgleda kao dobra oklada. Izabrat ću tu. 296 00:11:26,000 --> 00:11:28,000 Mogli biste reći, eh, to nije baš iracionalno. 297 00:11:28,000 --> 00:11:30,000 Ljudi nekako nisu skloni riziku. Pa što? 298 00:11:30,000 --> 00:11:32,000 Pa, to „pa što“ dolazi kad krenemo razmišljati 299 00:11:32,000 --> 00:11:34,000 o istom problemu 300 00:11:34,000 --> 00:11:36,000 na malo drugačiji način. 301 00:11:36,000 --> 00:11:38,000 Sad zamislite da svakome od vas 302 00:11:38,000 --> 00:11:41,000 dam 2.000 dolara – 20 svježih novčanica od sto dolara. 303 00:11:41,000 --> 00:11:43,000 Sada možete kupiti duplo više stvari nego prije. 304 00:11:43,000 --> 00:11:45,000 Razmislite o tome kako bi ih bilo pospremiti u novčanik. 305 00:11:45,000 --> 00:11:47,000 I sad zamislite kako morate učiniti još jedan izbor. 306 00:11:47,000 --> 00:11:49,000 Ali ovaj put je malo gori. 307 00:11:49,000 --> 00:11:52,000 Sada ćete odlučiti kako ćete izgubiti novac, 308 00:11:52,000 --> 00:11:54,000 ali ćete dobiti isti izbor. 309 00:11:54,000 --> 00:11:56,000 Možete ili odabrati riskantan gubitak – 310 00:11:56,000 --> 00:11:59,000 bacanje novčića. Ako se okrene glava, zaista ćete mnogo izgubiti. 311 00:11:59,000 --> 00:12:02,000 Ako se okrene pismo, ne gubite ništa, dobro ste, možete sve zadržati – 312 00:12:02,000 --> 00:12:05,000 ili možete igrati na sigurno, što znači da morate posegnuti u svoj novčanik 313 00:12:05,000 --> 00:12:08,000 i svakako mi dati pet tih novčanica od 100 dolara. 314 00:12:08,000 --> 00:12:11,000 I sad vidim ovdje mnogo namrštenih lica. 315 00:12:11,000 --> 00:12:13,000 Dakle, možda imate istu intuiciju 316 00:12:13,000 --> 00:12:15,000 kao i subjekti koji su zaista bili testirani, 317 00:12:15,000 --> 00:12:17,000 a to je da kada se iznesu ove opcije, 318 00:12:17,000 --> 00:12:19,000 ljudi ne izaberu igranje na sigurno. 319 00:12:19,000 --> 00:12:21,000 Zapravo imaju tendenciju da idu na rizik. 320 00:12:21,000 --> 00:12:24,000 Razlog zbog kojeg je ovo iracionalno je taj što smo ljudima u obje situacije 321 00:12:24,000 --> 00:12:26,000 dali isti izbor. 322 00:12:26,000 --> 00:12:29,000 To je pola-pola šansa za tisuću ili 2.000, 323 00:12:29,000 --> 00:12:31,000 ili samo sigurnih 1.500. 324 00:12:31,000 --> 00:12:34,000 Ali ljudska intuicija o tome koliko riskirati 325 00:12:34,000 --> 00:12:36,000 ovisi o tome sa koliko su započeli. 326 00:12:36,000 --> 00:12:38,000 Dakle, što se događa? 327 00:12:38,000 --> 00:12:40,000 Izgleda da je to rezultat 328 00:12:40,000 --> 00:12:43,000 najmanje dvije predrasude koje imamo na psihološkoj razini. 329 00:12:43,000 --> 00:12:46,000 Jedna je ta da nam je zaista teško razmišljati o apsolutnom iznosu. 330 00:12:46,000 --> 00:12:48,000 Zaista morate raditi da bi shvatili, 331 00:12:48,000 --> 00:12:50,000 pa, jedna opcija je tisuću, 2.000; 332 00:12:50,000 --> 00:12:52,000 jedna je 1.500. 333 00:12:52,000 --> 00:12:55,000 Umjesto toga, veoma nam je lako razmišljati u veoma relativnim iznosima 334 00:12:55,000 --> 00:12:58,000 kao opcije mijenjanja jednog vremena za drugo. 335 00:12:58,000 --> 00:13:01,000 Dakle, razmišljamo stvari poput ovih, „Oh, dobit ću više“ ili „Oh, dobit ću manje." 336 00:13:01,000 --> 00:13:03,000 Sve ovo je dobro i u redu, osim toga 337 00:13:03,000 --> 00:13:05,000 što se promjene u različitim smjerovima 338 00:13:05,000 --> 00:13:07,000 zapravo odražavaju na temelju toga da li smatramo 339 00:13:07,000 --> 00:13:09,000 da li su opcije dobre ili loše. 340 00:13:09,000 --> 00:13:11,000 A to vodi do druge predrasude 341 00:13:11,000 --> 00:13:13,000 koju ekonomisti zovu averzija gubitka. 342 00:13:13,000 --> 00:13:16,000 Pomisao je ta da zaista mrzimo kad stvari odu u crveno. 343 00:13:16,000 --> 00:13:18,000 Mi zaista mrzimo kad moramo izgubiti na novcu. 344 00:13:18,000 --> 00:13:20,000 A to znači da ponekad zaista 345 00:13:20,000 --> 00:13:22,000 zamjenimo naše prioritete da bi to izbjegli. 346 00:13:22,000 --> 00:13:24,000 Ovo što ste vidjeli u zadnjem scenariju je to 347 00:13:24,000 --> 00:13:26,000 da subjekti idu na rizik 348 00:13:26,000 --> 00:13:29,000 zato što žele imati malu šansu kako neće biti ikakvih gubitaka. 349 00:13:29,000 --> 00:13:31,000 To znači da kada smo u riskantnom stanju uma – 350 00:13:31,000 --> 00:13:33,000 oprostite, kada smo u stanju uma za gubitak, 351 00:13:33,000 --> 00:13:35,000 zapravo postajemo mnogo više skloniji riziku, 352 00:13:35,000 --> 00:13:37,000 što zaista može biti zabrinjavajuće. 353 00:13:37,000 --> 00:13:40,000 Ovakve stvari za ljude na mnogo načina ispadnu loše. 354 00:13:40,000 --> 00:13:43,000 Eto zašto burzovni ulagači duže drže gubitničke dionice – 355 00:13:43,000 --> 00:13:45,000 zato što ih procjenjuju u relativnim uvjetima. 356 00:13:45,000 --> 00:13:47,000 Eto zašto ljudi na stambenom tržištu odbijaju prodati svoje kuće – 357 00:13:47,000 --> 00:13:49,000 zato što ih ne žele prodati s gubitkom. 358 00:13:49,000 --> 00:13:51,000 Pitanje koje nas je zanimalo je 359 00:13:51,000 --> 00:13:53,000 da li majmuni pokazuju iste predrasude. 360 00:13:53,000 --> 00:13:56,000 Ako postavimo iste scenarije na našoj maloj majmunskoj tržinici, 361 00:13:56,000 --> 00:13:58,000 hoće li učiniti iste stvari kao i ljudi? 362 00:13:58,000 --> 00:14:00,000 I evo što smo učinili, dali smo majmunima izbor 363 00:14:00,000 --> 00:14:03,000 između tipova koji su sigurni – učinili su istu stvar svaki put – 364 00:14:03,000 --> 00:14:05,000 ili tipova koji su riskantni – 365 00:14:05,000 --> 00:14:07,000 radili su različite stvari pola vremena. 366 00:14:07,000 --> 00:14:09,000 I onda smo im dali opcije koje su bile bonusi – 367 00:14:09,000 --> 00:14:11,000 kao što ste vi učinili u prvom scenariju – 368 00:14:11,000 --> 00:14:13,000 a oni zapravo imaju šansu više, 369 00:14:13,000 --> 00:14:16,000 ili komadiće u kojima su doživjeli gubitke – 370 00:14:16,000 --> 00:14:18,000 oni su zaista mislili da će dobiti više no što su zaista dobili. 371 00:14:18,000 --> 00:14:20,000 I evo kako to izgleda. 372 00:14:20,000 --> 00:14:22,000 Predstavili smo majmunima dva nova majmuna prodavača. 373 00:14:22,000 --> 00:14:24,000 Tip s lijeva i s desna su počeli s jednim komadom grožđa, 374 00:14:24,000 --> 00:14:26,000 pa to izgleda relativno dobro. 375 00:14:26,000 --> 00:14:28,000 Ali počet će davati bonuse majmunima. 376 00:14:28,000 --> 00:14:30,000 Tip na lijevoj strani je siguran bonus. 377 00:14:30,000 --> 00:14:33,000 Svo vrijeme, on dodaje jedan, da bi dao majmunima dva. 378 00:14:33,000 --> 00:14:35,000 Tip s desne strane je zapravo rizičan bonus. 379 00:14:35,000 --> 00:14:38,000 Ponekad majmuni ne dobiju bonus – dakle ovo je nula bonus. 380 00:14:38,000 --> 00:14:41,000 Ponekad majmuni dobiju dva više. 381 00:14:41,000 --> 00:14:43,000 Za veliki bonus, sad dobiju tri. 382 00:14:43,000 --> 00:14:45,000 Ali to je isti bonus s kojim ste se vi maloprije suočili. 383 00:14:45,000 --> 00:14:48,000 Žele li majmuni zapravo igrati na sigurno i 384 00:14:48,000 --> 00:14:50,000 otići do tipa koji će učiniti istu stvar u svakom iskušenju 385 00:14:50,000 --> 00:14:52,000 ili žele ići na rizik 386 00:14:52,000 --> 00:14:54,000 i pokušati dobiti riskantan, ali veliki bonus 387 00:14:54,000 --> 00:14:56,000 s time da je šansa da ne dobiju nikakav bonus. 388 00:14:56,000 --> 00:14:58,000 Ljudi su ovdje igrali na sigurno. 389 00:14:58,000 --> 00:15:00,000 Ispada da i majmuni također igraju na sigurno. 390 00:15:00,000 --> 00:15:02,000 Kvalitativno i kvantitativno, 391 00:15:02,000 --> 00:15:04,000 izabrali su točno isti način kao i ljudi 392 00:15:04,000 --> 00:15:06,000 kad ih se testiralo za istu stvar. 393 00:15:06,000 --> 00:15:08,000 Mogli biste reći, pa možda majmuni jednostavno ne vole rizik. 394 00:15:08,000 --> 00:15:10,000 Možda bismo trebali vidjeti kako reagiraju s gubicima. 395 00:15:10,000 --> 00:15:12,000 I onda smo napravili drugu verziju ovog. 396 00:15:12,000 --> 00:15:14,000 Sada, majmuni upoznaju dva tipa 397 00:15:14,000 --> 00:15:16,000 koji im ne daju bonuse; 398 00:15:16,000 --> 00:15:18,000 zapravo im daju manje no što očekuju. 399 00:15:18,000 --> 00:15:20,000 Dakle, izgleda kao da počinju s velikom količinom. 400 00:15:20,000 --> 00:15:22,000 Ovo su tri grozda.; majmun je zaista uzbuđen zbog ovoga. 401 00:15:22,000 --> 00:15:25,000 Ali sada su naučili da će im ovi tipovi dati manje no što očekuju. 402 00:15:25,000 --> 00:15:27,000 Tip s lijeve strane je siguran gubitak. 403 00:15:27,000 --> 00:15:30,000 Svaki put će jedan uzeti i 404 00:15:30,000 --> 00:15:32,000 dati majmunima samo dva. 405 00:15:32,000 --> 00:15:34,000 Tip s desne strane je riskantan gubitak. 406 00:15:34,000 --> 00:15:37,000 Ponekad nema gubitka, pa su majmuni zaista uzbuđeni, 407 00:15:37,000 --> 00:15:39,000 ali ponekad zaista napravi veliki gubitak, 408 00:15:39,000 --> 00:15:41,000 uzimajući dva i dajući majmunima samo jedan. 409 00:15:41,000 --> 00:15:43,000 I što majmuni rade? 410 00:15:43,000 --> 00:15:45,000 Opet, isti izbor; mogu igrati na sigurno 411 00:15:45,000 --> 00:15:48,000 dobivajući dva grozda svaki put 412 00:15:48,000 --> 00:15:51,000 ili mogu riskirati i birati između jednog i tri. 413 00:15:51,000 --> 00:15:54,000 Nevjerojatna činjenica za nas je da kada majmunima date ovaj izbor, 414 00:15:54,000 --> 00:15:56,000 oni naprave istu iracionalnu stvar kao i ljudi. 415 00:15:56,000 --> 00:15:58,000 Zapravo postanu skloniji riziku 416 00:15:58,000 --> 00:16:01,000 ovisno o tome kako su eksperimentatori započeli. 417 00:16:01,000 --> 00:16:03,000 To je suludo zato što insinuira da i majmuni također 418 00:16:03,000 --> 00:16:05,000 procjenjuju stvari u relativnim uvjetima 419 00:16:05,000 --> 00:16:08,000 i zapravo tretiraju gubitke drugačije nego što tretiraju dobitke. 420 00:16:08,000 --> 00:16:10,000 I što sve ovo znači? 421 00:16:10,000 --> 00:16:12,000 Pa, kao što smo pokazali, prije svega, 422 00:16:12,000 --> 00:16:14,000 zaista bismo mogli dati majmunima financijsku valutu 423 00:16:14,000 --> 00:16:16,000 i oni bi s time učinili veoma slično. 424 00:16:16,000 --> 00:16:18,000 Rade neke pametne stvari kao i mi, 425 00:16:18,000 --> 00:16:20,000 neke ne tako lijepe stvari kao i mi, 426 00:16:20,000 --> 00:16:22,000 poput krađe i tome slično. 427 00:16:22,000 --> 00:16:24,000 Ali oni također rade i neke iracionalne stvari kao i mi. 428 00:16:24,000 --> 00:16:26,000 Oni sustavno rade stvari krivo i 429 00:16:26,000 --> 00:16:28,000 na isti način kao i mi. 430 00:16:28,000 --> 00:16:30,000 Ovo je prva poruka za ponijeti kući s govora, 431 00:16:30,000 --> 00:16:32,000 a to je da ako ste gledali početak i pomislili, 432 00:16:32,000 --> 00:16:34,000 oh, totalno ću otići kući i zaposliti majmuna kapucina kao financijskog savjetnika. 433 00:16:34,000 --> 00:16:36,000 Mnogo su slađi nego oni u... znate – 434 00:16:36,000 --> 00:16:38,000 Nemojte to učiniti; vjerojatno će biti jednako glup 435 00:16:38,000 --> 00:16:41,000 kao i čovjek kojeg već imate. 436 00:16:41,000 --> 00:16:43,000 Dakle, znate, malo loše – oprostite, oprostite, oprostite. 437 00:16:43,000 --> 00:16:45,000 Malo loše za majmuna ulagača. 438 00:16:45,000 --> 00:16:48,000 Ali naravno, znate, razlog zbog kojeg se smijete je također loš i za ljude. 439 00:16:48,000 --> 00:16:51,000 Zato što smo odgovorili na pitanje s kojim smo počeli. 440 00:16:51,000 --> 00:16:53,000 Željeli smo znati odakle su došle ovakve greške. 441 00:16:53,000 --> 00:16:55,000 I krenuli smo s nadom da bi možda mogli 442 00:16:55,000 --> 00:16:57,000 unaprijediti naše financijske ustanove, 443 00:16:57,000 --> 00:17:00,000 unaprijediti našu tehnologiju kako bi nam bilo bolje. 444 00:17:00,000 --> 00:17:03,000 Ali ono što smo naučili je to da bi ove predrasude mogle biti dublji dio nas od ovoga. 445 00:17:03,000 --> 00:17:05,000 Zapravo, možda su oni nastali tbog same prirode 446 00:17:05,000 --> 00:17:07,000 naše evolucijske povijesti. 447 00:17:07,000 --> 00:17:09,000 Znate, možda nisu samo ljudi 448 00:17:09,000 --> 00:17:11,000 na pravoj strani ovog lanca koji je glupav. 449 00:17:11,000 --> 00:17:13,000 Možda je nekako glupo skroz otpočetka. 450 00:17:13,000 --> 00:17:16,000 A ovo, ako vjerujemo rezultatima kapucina, 451 00:17:16,000 --> 00:17:18,000 znači da bi ove glupave strategije 452 00:17:18,000 --> 00:17:20,000 mogle biti stare 35 milijuna godina. 453 00:17:20,000 --> 00:17:22,000 To je puno vremena za strategiju 454 00:17:22,000 --> 00:17:25,000 da se promijeni - stvarno, stvarno puno. 455 00:17:25,000 --> 00:17:27,000 Što znamo o ostalim starim strategijama poput ove? 456 00:17:27,000 --> 00:17:30,000 Pa, jedna stvar koju znamo je da znaju biti zaista teške za savladati. 457 00:17:30,000 --> 00:17:32,000 Znate, razmislite o našem evolucijskom predizboru 458 00:17:32,000 --> 00:17:35,000 za jedenjem slatkih stvari, onih koje debljaju poput torte od sira. 459 00:17:35,000 --> 00:17:37,000 Ne možete to samo tako isključiti. 460 00:17:37,000 --> 00:17:40,000 Ne možete samo tako pogledati u košaricu s desertima i reći „Ne, ne, ne. To mi odvratno izgleda.“ 461 00:17:40,000 --> 00:17:42,000 Jednostavno smo drugačije napravljeni. 462 00:17:42,000 --> 00:17:44,000 Sagledati ćemo to kao dobru stvar. 463 00:17:44,000 --> 00:17:46,000 Pretpostavljam da će ista stvar biti istinita 464 00:17:46,000 --> 00:17:48,000 kada ljudi sagledavaju 465 00:17:48,000 --> 00:17:50,000 financijske odluke. 466 00:17:50,000 --> 00:17:52,000 Kada gledate svoje dionice kako prelaze u crveno, 467 00:17:52,000 --> 00:17:54,000 kada gledate kako vam se spušta cijena kuće, 468 00:17:54,000 --> 00:17:56,000 nećete moći biti u stanju to vidjeti 469 00:17:56,000 --> 00:17:58,000 nikako drugačije nego u starim evolucijskim terminima. 470 00:17:58,000 --> 00:18:00,000 To znači da predrasude 471 00:18:00,000 --> 00:18:02,000 koje vode ulagače da učine nešto loše, 472 00:18:02,000 --> 00:18:04,000 da vode krizu poništenja prava na oslobođenje od hipoteke, 473 00:18:04,000 --> 00:18:06,000 to će biti teško nadjačati. 474 00:18:06,000 --> 00:18:08,000 I to su loše vijesti. Pitanje je: ima li uopće dobrih vijesti? 475 00:18:08,000 --> 00:18:10,000 Trebala bih biti ovdje i govoriti vam dobre vijesti. 476 00:18:10,000 --> 00:18:12,000 Pa, dobre vijesti, mislim, 477 00:18:12,000 --> 00:18:14,000 su one s kojima sam počela na početku govora, 478 00:18:14,000 --> 00:18:16,000 a to je da ljudi nisu samo pametni; 479 00:18:16,000 --> 00:18:18,000 mi smo zaista nadahnuto pametni 480 00:18:18,000 --> 00:18:21,000 s obzirom na ostale životinje u biološkom carstvu. 481 00:18:21,000 --> 00:18:24,000 Toliko smo dobri u prevladavanju naših bioloških granica – 482 00:18:24,000 --> 00:18:26,000 znate, doletjela sam ovdje zrakoplovom. 483 00:18:26,000 --> 00:18:28,000 Nisam trebala pokušati zamahnuti krilima. 484 00:18:28,000 --> 00:18:31,000 Nosim kontaktne leće sada kako bih vas mogla vidjeti. 485 00:18:31,000 --> 00:18:34,000 Ne moram se osloniti na svoju vlastitu kratkovidnost. 486 00:18:34,000 --> 00:18:36,000 Zapravo imamo mnogo ovakvih primjera 487 00:18:36,000 --> 00:18:39,000 gdje smo nadvladali naše biološke granice 488 00:18:39,000 --> 00:18:42,000 kroz tehnologiju i ostalim načinima, naizgled relativno lako. 489 00:18:42,000 --> 00:18:45,000 Ali moramo prepoznati da imamo te granice. 490 00:18:45,000 --> 00:18:47,000 I tu je kvaka. 491 00:18:47,000 --> 00:18:49,000 Camus je jednom rekao, „Čovjek je jedina vrsta 492 00:18:49,000 --> 00:18:52,000 koja odbija biti ono što zaista je.“ 493 00:18:52,000 --> 00:18:54,000 Ali ironija je da bi 494 00:18:54,000 --> 00:18:56,000 jedino prepoznavanjem naših granica 495 00:18:56,000 --> 00:18:58,000 mogli ih zaista nadvladati. 496 00:18:58,000 --> 00:19:01,000 Nada je da ćete svi razmisliti o svojim granicama, 497 00:19:01,000 --> 00:19:04,000 ne nužno kao o nesavladivima, 498 00:19:04,000 --> 00:19:06,000 ali prepoznati ih, prihvatiti ih 499 00:19:06,000 --> 00:19:09,000 i onda upotrijebiti svijet dizajna da ih zaista shvatimo. 500 00:19:09,000 --> 00:19:12,000 To bi mogao biti jedini način na koji ćemo zaista moći 501 00:19:12,000 --> 00:19:14,000 postići vlastiti ljudski potencijal 502 00:19:14,000 --> 00:19:17,000 i zaista biti plemenita vrsta kakvom se svi nadamo da jesmo. 503 00:19:17,000 --> 00:19:19,000 Hvala vam. 504 00:19:19,000 --> 00:19:24,000 (Pljesak)