1 00:00:00,835 --> 00:00:02,990 Mark Tven je sumirao ono što smatram 2 00:00:02,990 --> 00:00:06,110 jednim od temeljnih problema kognitivne nauke 3 00:00:06,110 --> 00:00:07,820 samo jednom dosetkom. 4 00:00:08,410 --> 00:00:11,492 Rekao je: "Postoji nešto fascinantno u vezi sa naukom. 5 00:00:11,492 --> 00:00:14,720 Dobija se veliki obrt pretpostavki 6 00:00:14,720 --> 00:00:17,924 od tako sitnog ulaganja u činjenice." 7 00:00:17,924 --> 00:00:19,509 (Smeh) 8 00:00:20,199 --> 00:00:22,803 Tven je mislio to kao šalu, naravno, ali u pravu je, 9 00:00:22,803 --> 00:00:25,679 postoji nešto fascinantno u vezi sa naukom. 10 00:00:25,679 --> 00:00:29,940 Na osnovu nekoliko kostiju, zaključujemo o postojanju dinosaurusa. 11 00:00:30,910 --> 00:00:34,781 Na osnovu spektralnih linija, o sastavu nebula. 12 00:00:35,471 --> 00:00:38,409 Od voćne mušice, 13 00:00:38,409 --> 00:00:41,352 o mehanizmima nasleđivanja, 14 00:00:41,352 --> 00:00:45,345 a na osnovu rekonstruisanih snimaka protoka krvi kroz mozak, 15 00:00:45,601 --> 00:00:49,920 ili u mom slučaju, na osnovu ponašanja veoma male dece, 16 00:00:50,309 --> 00:00:53,138 pokušavamo da kažemo nešto o osnovnim mehanizmima 17 00:00:53,138 --> 00:00:54,971 ljudske kognicije. 18 00:00:55,276 --> 00:00:56,795 Konkretno, u mojoj laboratoriji 19 00:00:56,795 --> 00:01:00,575 na Odeljenju za mozak i kognitivne nauke na Masačusetskom tehnološkom institutu, 20 00:01:00,575 --> 00:01:04,129 provela sam proteklu deceniju pokušavajući da razumem misteriju 21 00:01:04,129 --> 00:01:07,841 kako deca uče tako mnogo iz tako malo tako brzo. 22 00:01:08,666 --> 00:01:11,644 Jer, ispostavlja se da je fascinantna stvar u vezi sa naukom 23 00:01:11,644 --> 00:01:15,173 takođe i fascinantna stvar u vezi sa decom, 24 00:01:15,173 --> 00:01:17,754 a to je, da ublažim verziju Marka Tvena, 25 00:01:17,754 --> 00:01:22,404 upravo njihova sposobnost da izvuku bujne, apstraktne zaključke 26 00:01:22,404 --> 00:01:26,792 brzo i tačno iz oskudnih, izmešanih podataka. 27 00:01:28,355 --> 00:01:30,753 Daću vam dva primera. 28 00:01:30,753 --> 00:01:33,040 Jedan je o problemu generalizacije, 29 00:01:33,040 --> 00:01:35,890 a drugi je o problemu uzročnog rezonovanja. 30 00:01:35,890 --> 00:01:38,415 I mada ću govoriti o radu u mojoj laboratoriji, 31 00:01:38,415 --> 00:01:41,875 ovaj rad je imao inspiraciju na terenu i njemu ga dugujem. 32 00:01:41,875 --> 00:01:46,158 Zahvalna sam mentorima, kolegama i saradnicima širom sveta. 33 00:01:47,308 --> 00:01:50,282 Počeću problemom generalizacije. 34 00:01:50,432 --> 00:01:52,505 Uopštavanje na osnovu malih uzoraka podataka 35 00:01:52,505 --> 00:01:54,785 je osnovni izvor nauke. 36 00:01:54,785 --> 00:01:57,339 Izbrojimo mali deo izbornog tela 37 00:01:57,339 --> 00:01:59,660 i predviđamo ishod nacionalnih izbora. 38 00:02:00,240 --> 00:02:04,165 Vidimo kako nekolicina pacijenata reaguje na tretman u kliničkom ispitivanju, 39 00:02:04,165 --> 00:02:07,230 i donosimo lekove na domaće tržište. 40 00:02:07,230 --> 00:02:11,595 Ali ovo funkcioniše samo ako je naš uzorak nasumično izvučen iz populacije. 41 00:02:11,595 --> 00:02:14,330 Ako je naš uzorak biran na neki način - 42 00:02:14,330 --> 00:02:16,402 recimo, ispitamo samo gradske birače, 43 00:02:16,402 --> 00:02:20,790 ili recimo, u kliničkim ispitivanjima tretmana bolesti srca 44 00:02:20,790 --> 00:02:22,671 uključimo samo muškarce - 45 00:02:22,671 --> 00:02:25,829 rezultati se možda neće generalizovati na širu populaciju. 46 00:02:26,479 --> 00:02:30,060 Dakle, naučnike zanima da li su dokazi slučajno uzorkovani ili ne, 47 00:02:30,060 --> 00:02:32,075 ali kakve to ima veze sa bebama? 48 00:02:32,585 --> 00:02:37,206 Pa, bebe moraju stalno da generalizuju na osnovu malih uzoraka podataka. 49 00:02:37,206 --> 00:02:40,364 Vide nekoliko gumenih pataka i nauče da one plutaju, 50 00:02:40,364 --> 00:02:43,939 ili nekoliko lopti i nauče da one odskaču. 51 00:02:43,939 --> 00:02:46,890 I razvijaju očekivanja u vezi sa patkama i loptama 52 00:02:46,890 --> 00:02:49,606 koje će proširiti na gumene patke i lopte 53 00:02:49,606 --> 00:02:51,485 do kraja njihovih života. 54 00:02:51,485 --> 00:02:55,224 A vrste generalizacija koje bebe prave o patkama i loptama 55 00:02:55,224 --> 00:02:57,313 moraju da prave o gotovo svemu: 56 00:02:57,313 --> 00:03:01,230 cipelama, brodovima, vosku za pečaćenje, kupusu i kraljevima. 57 00:03:02,200 --> 00:03:05,161 Da li bebe zanima da li delić dokaza koji one vide 58 00:03:05,161 --> 00:03:08,494 verodostojno predstavlja veću populaciju? 59 00:03:09,763 --> 00:03:11,663 Hajde da to otkrijemo. 60 00:03:11,663 --> 00:03:13,386 Pokazaću vam dva filma, 61 00:03:13,386 --> 00:03:15,848 jedan iz svake od situacija u eksperimentu, 62 00:03:15,848 --> 00:03:18,286 i pošto ćete videti samo dva filma, 63 00:03:18,286 --> 00:03:20,422 videćete samo dve bebe, 64 00:03:20,422 --> 00:03:24,369 a bilo koje dve bebe se razlikuju međusobno na bezbroj načina. 65 00:03:24,369 --> 00:03:27,420 Ali ove bebe, naravno, ovde zastupaju grupe beba, 66 00:03:27,420 --> 00:03:29,315 i razlike koje ćete videti 67 00:03:29,315 --> 00:03:34,216 predstavljaju prosečne grupne razlike u ponašanju beba kroz različite uslove. 68 00:03:35,160 --> 00:03:37,743 U svakom filmu ćete videti kako beba radi 69 00:03:37,743 --> 00:03:41,203 možda baš ono što biste očekivali da će beba uraditi, 70 00:03:41,203 --> 00:03:45,220 a teško da možemo da učinimo bebe čarobnijim nego što već jesu. 71 00:03:46,090 --> 00:03:48,100 Ali za mene je čarobna stvar, 72 00:03:48,100 --> 00:03:50,189 i ono na šta želim da obratite pažnju, 73 00:03:50,189 --> 00:03:53,300 kontrast između ova dva uslova, 74 00:03:53,300 --> 00:03:56,829 jer jedino što razlikuje ova dva filma 75 00:03:56,829 --> 00:03:59,689 je statistički dokaz koji će bebe primetiti. 76 00:04:01,425 --> 00:04:04,608 Pokazaćemo bebama kutiju plavih i žutih lopti, 77 00:04:04,608 --> 00:04:09,228 a moja tadašnja studentkinja, sada koleginica na Stenfordu, Jouon Gvon, 78 00:04:09,228 --> 00:04:12,305 izvući će tri plave lopte zaredom iz ove kutije, 79 00:04:12,305 --> 00:04:15,428 i kada izvuče te lopte, stisnuće ih, 80 00:04:15,428 --> 00:04:17,541 a lopte će zapištati. 81 00:04:17,541 --> 00:04:20,304 Ako ste beba, to je kao TED govor. 82 00:04:20,304 --> 00:04:22,208 Ne može biti bolje od toga. 83 00:04:22,208 --> 00:04:24,769 (Smeh) 84 00:04:26,968 --> 00:04:30,627 Ali bitna poenta je da je veoma lako izvući tri plave loptice zaredom 85 00:04:30,627 --> 00:04:32,932 iz kutije sa pretežno plavim lopticama. 86 00:04:32,932 --> 00:04:34,992 Možete to da uradite sa zatvorenim očima. 87 00:04:34,992 --> 00:04:37,988 To je verovatno slučajni uzorak iz ove populacije. 88 00:04:37,988 --> 00:04:41,720 A ako možete posegnuti u kutiju nasumice i izvaditi stvari koje pište, 89 00:04:41,720 --> 00:04:44,559 onda možda sve u toj kutiji pišti. 90 00:04:44,559 --> 00:04:48,209 Možda bebe očekuju da žute lopte takođe pište. 91 00:04:48,209 --> 00:04:50,728 Te žute lopte imaju zabavne štapiće na kraju, 92 00:04:50,728 --> 00:04:53,585 tako da bebe mogu da rade druge stvari sa njima ako hoće. 93 00:04:53,585 --> 00:04:55,416 Mogu da ih lupaju ili udaraju. 94 00:04:55,416 --> 00:04:58,002 Ali hajde da vidimo šta beba radi. 95 00:05:00,548 --> 00:05:03,891 (Video) Jouon Gvon: Vidiš ovo? (Lopta pišti) 96 00:05:04,531 --> 00:05:07,576 Jesi li videla to? (Lopta pišti) 97 00:05:08,036 --> 00:05:09,650 Kul. 98 00:05:12,706 --> 00:05:14,656 Vidiš ovu? 99 00:05:14,656 --> 00:05:16,537 (Lopta pišti) 100 00:05:16,537 --> 00:05:18,639 Opa! 101 00:05:21,854 --> 00:05:23,967 Lora Šulc: Rekla sam vam. (Smeh) 102 00:05:23,967 --> 00:05:27,061 (Video) JG: Vidiš ovu? (Lopta pišti) 103 00:05:27,998 --> 00:05:32,067 Hej Klara, ova je za tebe. Možeš da se igraš. 104 00:05:39,854 --> 00:05:44,219 (Smeh) 105 00:05:44,219 --> 00:05:47,214 LŠ: Ne moram ni da pričam, zar ne? 106 00:05:47,214 --> 00:05:50,113 U redu, lepo je to što će bebe generalizovati osobine 107 00:05:50,113 --> 00:05:51,641 plavih loptica na žute loptice, 108 00:05:51,641 --> 00:05:54,737 i impresivno je to što bebe mogu da uče imitirajući nas, 109 00:05:54,737 --> 00:05:58,084 ali to sve znamo o bebama još odavno. 110 00:05:58,406 --> 00:06:00,217 Zaista zanimljivo pitanje 111 00:06:00,217 --> 00:06:03,069 je šta se dešava kada pokažemo bebama isto to, 112 00:06:03,069 --> 00:06:06,680 a možemo da obezbedimo da bude baš isto jer imamo tajnu pregradu 113 00:06:06,680 --> 00:06:08,790 i izvlačimo lopte odatle, 114 00:06:08,790 --> 00:06:12,268 ali ovog puta menjamo samo vidljivu populaciju 115 00:06:12,268 --> 00:06:15,170 iz koje se izvlači dokaz. 116 00:06:15,170 --> 00:06:18,723 Ovoga puta ćemo bebama pokazati tri plave loptice 117 00:06:18,723 --> 00:06:22,107 izvučene iz kutije sa pretežno žutim lopticama, 118 00:06:22,107 --> 00:06:23,429 i pogodite šta? 119 00:06:23,429 --> 00:06:26,269 Verovatno nećete nasumično izvući tri loptice zaredom 120 00:06:26,269 --> 00:06:28,753 iz kutije sa većinom žutim lopticama. 121 00:06:28,753 --> 00:06:32,500 To nije verovatan slučajno uzorkovani dokaz. 122 00:06:32,500 --> 00:06:37,309 Taj dokazi ukazuje da je možda Jouon namerno uzorkovala plave loptice. 123 00:06:37,623 --> 00:06:40,284 Možda postoji nešto posebno u vezi sa plavim lopticama. 124 00:06:40,846 --> 00:06:43,822 Možda samo plave loptice pište. 125 00:06:43,822 --> 00:06:45,717 Hajde da vidimo šta beba radi. 126 00:06:45,717 --> 00:06:48,621 (Video) JG: Vidiš ovo? (Lopta pišti) 127 00:06:50,851 --> 00:06:53,496 Vidiš ovu igračku? (Lopta pišti) 128 00:06:53,496 --> 00:06:58,159 O, to je bilo kul. Vidiš? (Lopta pišti) 129 00:06:58,976 --> 00:07:02,194 Ova je za tebe da se igraš. Možeš da se igraš. 130 00:07:06,074 --> 00:07:09,754 (Beba negoduje) (Smeh) 131 00:07:14,901 --> 00:07:17,649 LŠ: Upravo ste videli dve bebe stare 15 meseci 132 00:07:17,649 --> 00:07:19,591 koje rade potpuno različite stvari 133 00:07:19,591 --> 00:07:23,130 samo na osnovu verovatnoće uzorka koji su zapazile. 134 00:07:23,130 --> 00:07:25,511 Dozvolite da vam pokažem eksperimentalne rezultate. 135 00:07:25,511 --> 00:07:28,275 Na vertikalnoj osi ćete videti procenat beba 136 00:07:28,275 --> 00:07:31,425 koje su stiskale loptu u svakoj situaciji, i kao što ćete videti, 137 00:07:31,425 --> 00:07:34,520 mnogo je verovatnije da će bebe generalizovati dokaz 138 00:07:34,520 --> 00:07:37,655 kada verodostojnije predstavlja populaciju 139 00:07:37,655 --> 00:07:41,393 nego kada je očigledno probran. 140 00:07:41,393 --> 00:07:43,808 A to navodi na zabavno predviđanje: 141 00:07:43,808 --> 00:07:46,716 recimo da ste izvukli samo jednu plavu loptu 142 00:07:46,716 --> 00:07:48,896 iz uglavnom žute kutije. 143 00:07:48,896 --> 00:07:52,665 Verovatno nećete izvući tri plave lopte zaredom iz žute kutije, 144 00:07:52,665 --> 00:07:55,220 ali biste mogli nasumice uzeti samo jednu plavu loptu. 145 00:07:55,220 --> 00:07:57,190 To nije neverovatan uzorak. 146 00:07:57,190 --> 00:07:59,414 A ako posegnete u kutiju nasumice 147 00:07:59,414 --> 00:08:03,193 i izvučete nešto što pišti, možda sve u kutiji pišti. 148 00:08:03,875 --> 00:08:08,320 Dakle, iako će bebe videti mnogo manje dokaza za pištanje, 149 00:08:08,320 --> 00:08:10,562 i imati mnogo manje radnji za oponašanje 150 00:08:10,562 --> 00:08:13,905 u situaciji sa jednom loptom nego u situaciji koju ste upravo videli, 151 00:08:13,905 --> 00:08:17,797 predvideli smo da će bebe stiskati više, 152 00:08:17,797 --> 00:08:20,691 i to je upravo ono što smo pronašli. 153 00:08:20,691 --> 00:08:25,102 Dakle, bebama od 15 meseci, u ovom pogledu, kao i naučnicima, 154 00:08:25,102 --> 00:08:28,190 je bitno da li je dokaz nasumično uzorkovan ili ne, 155 00:08:28,190 --> 00:08:31,697 i one koriste to da stvore očekivanja o svetu: 156 00:08:31,697 --> 00:08:33,879 šta pišti, a šta ne, 157 00:08:33,879 --> 00:08:36,743 šta istražiti, a šta ignorisati. 158 00:08:38,064 --> 00:08:40,450 Dozvolite mi da vam sada pokažem još jedan primer, 159 00:08:40,450 --> 00:08:43,180 ovog puta o problemu uzročnog rasuđivanja. 160 00:08:43,180 --> 00:08:45,619 Počinje problemom zbunjujućeg dokaza, 161 00:08:45,619 --> 00:08:47,291 koji postoji kod svih nas, 162 00:08:47,291 --> 00:08:49,311 a to je da smo deo sveta. 163 00:08:49,311 --> 00:08:52,747 I to vam možda ne deluje kao problem ali, kao i većina problema, 164 00:08:52,747 --> 00:08:55,084 postaje problem tek kada stvari krenu naopako. 165 00:08:55,464 --> 00:08:57,275 Uzmite ovu bebu, na primer. 166 00:08:57,275 --> 00:08:58,980 Stvari mu ne polaze za rukom. 167 00:08:58,980 --> 00:09:01,251 Želeo bi da pokrene ovu igračku, ali ne može. 168 00:09:01,251 --> 00:09:03,780 Pokazaću vam snimak od nekoliko sekundi. 169 00:09:09,340 --> 00:09:11,260 Postoje dve mogućnosti, uglavnom. 170 00:09:11,260 --> 00:09:13,894 Možda radi nešto pogrešno, 171 00:09:13,894 --> 00:09:17,441 ili možda nešto nije u redu sa igračkom. 172 00:09:18,110 --> 00:09:20,221 Dakle, u sledećem eksperimentu, 173 00:09:20,221 --> 00:09:23,518 daćemo bebama samo delić statističkih podataka 174 00:09:23,518 --> 00:09:26,040 koji podržavaju jednu od hipoteza, 175 00:09:26,040 --> 00:09:29,555 i videćemo da li bebe mogu to da koriste kako bi donosile različite odluke 176 00:09:29,555 --> 00:09:31,389 o onome što će činiti. 177 00:09:31,389 --> 00:09:33,411 Evo postavke. 178 00:09:34,071 --> 00:09:37,101 Jouon će pokušati da pokrene igračku i uspeti u tome. 179 00:09:37,101 --> 00:09:40,421 Ja ću potom pokušati dva puta i oba puta neću uspeti, 180 00:09:40,421 --> 00:09:43,533 zatim će Jouon pokušati ponovo i uspeti, 181 00:09:43,533 --> 00:09:46,705 i to otprilike rezimira odnos koji imam sa mojim studentima 182 00:09:46,705 --> 00:09:49,540 po pitanju svih vrsta tehnologija. 183 00:09:50,030 --> 00:09:53,322 Ali, ono što je ovde važno jeste to da se pruža malo dokaza 184 00:09:53,322 --> 00:09:56,990 da problem nije sa igračkom, već sa osobom. 185 00:09:56,990 --> 00:09:59,340 Neki ljudi mogu da pokrenu ovu igračku, 186 00:09:59,340 --> 00:10:00,496 a neki ne mogu. 187 00:10:00,799 --> 00:10:04,212 Sad, kada beba dobije igračku, imaće izbor. 188 00:10:04,212 --> 00:10:06,400 Njegova mama je tu pored, 189 00:10:06,400 --> 00:10:09,715 tako da može da joj priđe, preda igračku i promeni osobu, 190 00:10:09,715 --> 00:10:12,873 ali na kraju te krpe će biti još jedna igračka, 191 00:10:12,873 --> 00:10:16,425 i on može da povuče krpu ka sebi i promeni igračku. 192 00:10:16,425 --> 00:10:18,515 Hajde da vidimo šta će beba uraditi. 193 00:10:18,515 --> 00:10:22,533 (Video) JG: Dva, tri. Sad! (Muzika) 194 00:10:22,698 --> 00:10:25,457 LS: Jedan, dva, tri, sad! 195 00:10:26,943 --> 00:10:31,550 Arture, pokušaću ponovo. Jedan, dva, tri, sad! 196 00:10:33,677 --> 00:10:36,277 JG: Arture, dopusti da ja pokušam ponovo, okej? 197 00:10:36,277 --> 00:10:40,400 Jedan, dva, tri, sad! (Muzika) 198 00:10:41,583 --> 00:10:43,466 Pogledaj. Sećaš li se tih igračaka? 199 00:10:43,466 --> 00:10:46,730 Vidiš te igračke? Da, staviću ovu ovde, 200 00:10:46,730 --> 00:10:48,792 a ovu ću ti dati. 201 00:10:48,792 --> 00:10:51,127 Možeš da se igraš. 202 00:11:11,213 --> 00:11:15,950 LŠ: Okej, Lora, ali naravno, bebe vole svoje mame. 203 00:11:15,950 --> 00:11:18,132 Naravno da bebe daju igračke svojim mamama 204 00:11:18,132 --> 00:11:20,162 kada ne mogu da učine da prorade. 205 00:11:20,162 --> 00:11:23,755 Još jednom, zaista bitno pitanje je šta se dešava kada promenimo 206 00:11:23,755 --> 00:11:26,517 statističke podatke neznatno. 207 00:11:26,909 --> 00:11:28,346 Ovog puta, bebe će videti 208 00:11:28,346 --> 00:11:30,996 kako igračka radi i ne radi potpuno istim redosledom, 209 00:11:30,996 --> 00:11:33,411 ali ćemo izmeniti raspodelu dokaza. 210 00:11:33,411 --> 00:11:37,556 Ovog puta će Jouon uspeti jednom i neće uspeti jednom, a isto tako ću i ja. 211 00:11:37,822 --> 00:11:43,062 Ovo ukazuje da nije bitno ko isprobava igračku, igračka je pokvarena. 212 00:11:43,459 --> 00:11:45,345 Ne radi uvek. 213 00:11:45,345 --> 00:11:47,310 Još jednom, beba će imati izbor. 214 00:11:47,310 --> 00:11:50,706 Njena mama je tu pored, tako da može da promeni osobu, 215 00:11:50,706 --> 00:11:53,620 i biće tu još jedna igračka na kraju krpe. 216 00:11:53,620 --> 00:11:55,288 Hajde da vidimo šta će uraditi. 217 00:11:55,288 --> 00:11:58,505 (Video) JG: Dva, tri, sad! (Muzika) 218 00:11:59,636 --> 00:12:03,465 Daj da probam još jednom. Jedan, dva, tri, sad! 219 00:12:05,460 --> 00:12:07,157 Hmmm. 220 00:12:07,950 --> 00:12:10,642 LŠ: Daj da ja probam, Klara. 221 00:12:10,642 --> 00:12:13,661 Jedan, dva, tri, sad! 222 00:12:15,265 --> 00:12:17,200 Hmmm, daj da probam još jednom. 223 00:12:17,200 --> 00:12:20,811 Jedan, dva, tri, sad! (Muzika) 224 00:12:22,859 --> 00:12:25,242 JG: Staviću ovu ovde, 225 00:12:25,242 --> 00:12:27,243 a ovu ću ti dati. 226 00:12:27,243 --> 00:12:29,217 Možeš da se igraš. 227 00:12:46,376 --> 00:12:51,273 (Aplauz) 228 00:12:52,893 --> 00:12:55,385 LŠ: Dozvolite da vam pokažem rezultate eksperimenta. 229 00:12:55,385 --> 00:12:57,860 Na vertikalnoj osi ćete videti raspodelu 230 00:12:57,860 --> 00:13:00,437 izbora dece u svakoj od situacija, 231 00:13:00,437 --> 00:13:04,772 i videćete da raspodela izbora koji deca donose 232 00:13:04,988 --> 00:13:07,775 zavisi od dokaza koje posmatraju. 233 00:13:07,775 --> 00:13:09,632 U drugoj godini života 234 00:13:09,632 --> 00:13:12,209 bebe mogu da koriste malo statističkih podataka 235 00:13:12,209 --> 00:13:15,576 da bi odabrali između dve fundamentalno različite strategije 236 00:13:15,576 --> 00:13:17,457 za postupanje u svetu: 237 00:13:17,457 --> 00:13:20,200 pitati za pomoć i istraživati. 238 00:13:21,700 --> 00:13:25,134 Upravo sam vam pokazala dva laboratorijska eksperimenta 239 00:13:25,134 --> 00:13:28,825 od bukvalno stotina u ovoj oblasti koji imaju sličnu poentu, 240 00:13:28,825 --> 00:13:31,217 jer je presudna poenta 241 00:13:31,217 --> 00:13:36,325 da se sposobnost dece da donose bogate zaključke iz oskudnih podataka 242 00:13:36,325 --> 00:13:41,666 nalazi u osnovi svakog specifičnog kulturnog učenja. 243 00:13:41,666 --> 00:13:45,822 Deca uče o novim alatkama na osnovu samo nekoliko primera. 244 00:13:46,263 --> 00:13:50,562 Uče nove uzročno-posledične veze iz samo nekoliko primera. 245 00:13:51,928 --> 00:13:56,524 Čak uče i nove reči, u ovom slučaju američki znakovni jezik. 246 00:13:56,799 --> 00:13:59,110 Želim da završim sa samo dve poente. 247 00:14:00,050 --> 00:14:03,738 Ako ste pratili moj svet, oblast mozga i kognitivne nauke, 248 00:14:03,738 --> 00:14:05,665 poslednjih nekoliko godina, 249 00:14:05,665 --> 00:14:08,080 tri ideje su vam privukle pažnju. 250 00:14:08,080 --> 00:14:11,207 Prva je da je ovo era mozga. 251 00:14:11,516 --> 00:14:15,185 I zaista, bilo je neverovatnih otkrića u neuronaukama: 252 00:14:15,185 --> 00:14:18,621 lokalizacija funkcionalno specijalizovanih regija korteksa, 253 00:14:18,621 --> 00:14:21,222 dovođenje mišjeg mozga u transparentno stanje, 254 00:14:21,222 --> 00:14:23,856 aktiviranje neurona svetlošću. 255 00:14:24,998 --> 00:14:26,994 Druga velika ideja 256 00:14:26,994 --> 00:14:31,098 je da je ovo era velikih podataka i mašinskog učenja, 257 00:14:31,098 --> 00:14:34,239 a mašinsko učenje obećava revoluciju u našem razumevanju 258 00:14:34,239 --> 00:14:38,149 svega, od društvenih mreža do epidemiologije. 259 00:14:38,906 --> 00:14:41,599 I možda će nam, kako se bavi problemima razumevanja scene 260 00:14:41,599 --> 00:14:43,592 i obrade prirodnog jezika, 261 00:14:43,592 --> 00:14:46,521 reći nešto o ljudskoj kogniciji. 262 00:14:47,756 --> 00:14:49,693 A poslednja velika ideja koju ćete čuti 263 00:14:49,693 --> 00:14:53,010 je da je možda dobra ideja da ćemo toliko znati o mozgu 264 00:14:53,010 --> 00:14:54,997 i imati toliko pristupa velikim podacima, 265 00:14:54,997 --> 00:14:57,504 jer prepušteni sami sebi, 266 00:14:57,504 --> 00:15:00,960 ljudi su skloni greškama, koristimo prečice, 267 00:15:01,335 --> 00:15:04,433 grešimo, pravimo pogreške, 268 00:15:04,772 --> 00:15:08,456 imamo predrasude, i na bezbroj načina, 269 00:15:08,456 --> 00:15:11,008 shvatamo svet pogrešno. 270 00:15:12,843 --> 00:15:15,792 Mislim da su ovo sve važne priče, 271 00:15:15,792 --> 00:15:19,467 i imaju mnogo toga da nam kažu o tome šta znači biti čovek, 272 00:15:19,467 --> 00:15:23,216 ali želim da primite k znanju da sam vam danas ispričala veoma drugačiju priču. 273 00:15:23,966 --> 00:15:27,773 To je priča o umu, a ne o mozgu, 274 00:15:27,773 --> 00:15:30,779 a naročito, to je priča o vrstama proračuna 275 00:15:30,779 --> 00:15:33,369 koje jedino ljudski um može da vrši, 276 00:15:33,369 --> 00:15:37,313 što podrazumeva bogato, strukturirano znanje i sposobnost učenja 277 00:15:37,313 --> 00:15:42,206 iz malih količina podataka, dokaz samo na osnovu nekoliko primera. 278 00:15:44,301 --> 00:15:48,600 I u osnovi, to je priča o tome kako počevši kao veoma mala deca 279 00:15:48,600 --> 00:15:52,258 i nastavljajući sve do najvećih dostignuća 280 00:15:52,780 --> 00:15:54,692 naše kulture, 281 00:15:56,623 --> 00:15:58,693 shvatamo svet na pravi način. 282 00:16:00,433 --> 00:16:05,385 Narode, ljudski um ne uči samo iz malih količina podataka. 283 00:16:06,285 --> 00:16:08,386 Ljudski umovi smišljaju potpuno nove ideje. 284 00:16:08,746 --> 00:16:11,787 Ljudski umovi rađaju istraživanja i otkrića, 285 00:16:11,787 --> 00:16:16,032 rađaju umetnost i književnost, poeziju i pozorište, 286 00:16:17,070 --> 00:16:20,830 i ljudski umovi se brinu o drugim ljudima: 287 00:16:20,830 --> 00:16:24,257 našim starima, mladima, bolesnima. 288 00:16:24,517 --> 00:16:26,884 Čak ih i lečimo. 289 00:16:27,564 --> 00:16:30,667 U godinama koje su pred nama, videćemo tehnološke inovacije 290 00:16:30,667 --> 00:16:33,847 kakve ne mogu ni da zamislim, 291 00:16:34,464 --> 00:16:36,614 ali je veoma malo verovatno 292 00:16:36,614 --> 00:16:41,703 da ćemo videti bilo šta čak ni približno moći proračuna ljudskog deteta 293 00:16:42,323 --> 00:16:45,552 tokom mog života ili vašeg. 294 00:16:46,621 --> 00:16:50,571 Ako ulažemo u te najmoćnije učenike i njihov razvoj, 295 00:16:51,668 --> 00:16:53,739 u bebe i decu 296 00:16:54,585 --> 00:16:56,411 i majke i očeve 297 00:16:56,411 --> 00:16:59,110 i staratelje i učitelje 298 00:16:59,110 --> 00:17:03,280 onako kako ulažemo u druge naše najmoćnije i najelegantnije oblike 299 00:17:03,280 --> 00:17:06,498 tehnologije, inženjeringa i dizajna, 300 00:17:06,498 --> 00:17:09,437 nećemo samo sanjati o boljoj budućnosti, 301 00:17:09,437 --> 00:17:11,564 već ćemo je planirati. 302 00:17:11,564 --> 00:17:13,909 Mnogo vam hvala. 303 00:17:13,909 --> 00:17:17,330 (Aplauz) 304 00:17:17,810 --> 00:17:22,236 Kris Anderson: Lora, hvala. Ja zapravo imam jedno pitanje za tebe. 305 00:17:22,236 --> 00:17:24,595 Pre svega, istraživanje je suludo. 306 00:17:24,595 --> 00:17:28,320 Mislim, ko bi osmislio takav eksperiment? (Smeh) 307 00:17:29,150 --> 00:17:30,940 Video sam to par puta, 308 00:17:30,940 --> 00:17:34,162 i još uvek iskreno ne verujem da se to stvarno dešava, 309 00:17:34,162 --> 00:17:37,320 ali i drugi su uradili slične eksperimente; provereno je. 310 00:17:37,320 --> 00:17:38,953 Bebe su stvarno toliko genijalne. 311 00:17:38,953 --> 00:17:41,960 LŠ: Znaš, izgledaju stvarno impresivno u našim eksperimentima, 312 00:17:41,960 --> 00:17:44,612 ali pomisli na to kako izgledaju u stvarnom životu. 313 00:17:44,612 --> 00:17:45,762 Počinje kao beba. 314 00:17:45,762 --> 00:17:47,769 Osamnaest meseci kasnije priča sa vama, 315 00:17:47,769 --> 00:17:50,810 a bebine prve reči nisu samo one poput lopte i patke, 316 00:17:50,810 --> 00:17:53,691 to su i "nema", što se odnosi na nestajanje, 317 00:17:53,691 --> 00:17:55,974 ili "o-o", što se odnosi na nenamerne postupke. 318 00:17:55,974 --> 00:17:57,536 To mora da je toliko moćno. 319 00:17:57,536 --> 00:18:00,311 To mora da je mnogo moćnije od svega što sam vam pokazala. 320 00:18:00,311 --> 00:18:02,285 Oni otkrivaju ceo svet. 321 00:18:02,285 --> 00:18:05,429 Dete od četiri godine može da priča sa vama o gotovo svemu. 322 00:18:05,429 --> 00:18:07,030 (Aplauz) 323 00:18:07,030 --> 00:18:10,444 KA: I ako sam te dobro razumeo, druga tvoja ključna poenta je, 324 00:18:10,444 --> 00:18:13,198 protekle su godine sa tom pričom 325 00:18:13,198 --> 00:18:15,130 o tome kako je um uvrnut i blesav, 326 00:18:15,130 --> 00:18:17,877 bihejvioralna ekonomija i čitave teorije 327 00:18:17,877 --> 00:18:19,600 o tome kako nismo razumni izvršioci. 328 00:18:19,600 --> 00:18:23,816 Ti u stvari govoriš da je veća priča kako je izvanredan, 329 00:18:23,816 --> 00:18:27,852 i da je tu zapravo genije koji se potcenjuje. 330 00:18:28,580 --> 00:18:30,900 LŠ: Jedan od mojih omiljenih citata u psihologiji 331 00:18:30,900 --> 00:18:33,120 potiče od socijalnog psihologa Solomona Eša, 332 00:18:33,120 --> 00:18:35,927 a on je rekao da je osnovni zadatak psihologije da ukloni 333 00:18:35,927 --> 00:18:38,553 zavesu samodokazivanja. 334 00:18:38,553 --> 00:18:42,824 Postoji milion redova veličine više odluka koje donosite svakodnevno 335 00:18:42,824 --> 00:18:44,231 koje pravilno shvataju svet. 336 00:18:44,231 --> 00:18:46,453 Imate znanje o predmetima i njihovim osobinama. 337 00:18:46,453 --> 00:18:49,272 Prepoznajete ih kada su zaklonjeni. Prepoznajete ih u mraku. 338 00:18:49,272 --> 00:18:51,070 Možete da se krećete kroz prostorije. 339 00:18:51,070 --> 00:18:54,542 Možete da shvatite šta drugi ljudi misle. Možete da razgovarate sa njima. 340 00:18:54,542 --> 00:18:56,742 Možete se kretati u prostoru. Razumete brojeve. 341 00:18:56,742 --> 00:18:59,704 Razumete uzročno-posledične veze. Razumete moralno rasuđivanje. 342 00:18:59,704 --> 00:19:01,670 Radite to bez napora, tako da se ne vidi, 343 00:19:01,670 --> 00:19:04,972 ali to je način na koji poimamo svet, a to je neverovatno dostignuće 344 00:19:04,982 --> 00:19:07,290 i veoma teško za razumevanje. 345 00:19:07,290 --> 00:19:09,908 KA: Pretpostavljam da postoje ljudi u publici koji imaju 346 00:19:09,918 --> 00:19:11,966 gledište o ubrzanoj tehnološkoj moći 347 00:19:11,966 --> 00:19:15,204 koji bi mogli da ospore tvoju izjavu da nikada za vreme našeg života 348 00:19:15,204 --> 00:19:17,732 računar neće uraditi ono što može trogodišnje dete, 349 00:19:17,732 --> 00:19:20,980 ali ono što je jasno jeste da u bilo kom scenariju, 350 00:19:20,980 --> 00:19:24,750 naše mašine mogu mnogo toga da nauče od naših beba. 351 00:19:26,230 --> 00:19:29,446 LŠ: Mislim da je tako. Tu su neki ljudi koji se bave mašinama koje uče. 352 00:19:29,446 --> 00:19:33,649 Mislim, nikada se ne treba kladiti protiv beba ili šimpanzi 353 00:19:33,649 --> 00:19:36,684 ili tehnologije tek tako, 354 00:19:37,294 --> 00:19:40,879 ali nije u pitanju samo razlika u količini, 355 00:19:41,822 --> 00:19:43,586 već razlika u vrsti. 356 00:19:43,586 --> 00:19:45,646 Imamo neverovatno moćne kompjutere, 357 00:19:45,646 --> 00:19:48,327 i oni stvarno obavljaju neverovatno sofisticirane stvari, 358 00:19:48,327 --> 00:19:51,341 često sa veoma velikom količinom podataka. 359 00:19:51,341 --> 00:19:53,948 Ljudski um čini, po meni, nešto sasvim drugačije, 360 00:19:53,948 --> 00:19:57,843 a mislim da je strukturirana, hijerarhijska priroda ljudskog znanja 361 00:19:57,843 --> 00:19:59,875 ono što ostaje pravi izazov. 362 00:19:59,875 --> 00:20:02,936 KA: Lora Šulc, sjajna hrana za misli. Mnogo ti hvala. 363 00:20:02,936 --> 00:20:04,503 LŠ: Hvala. (Aplauz)