1 00:00:00,738 --> 00:00:02,735 Ako se sjećate tog prvog desetljeća na Internetu, 2 00:00:02,735 --> 00:00:04,990 bilo je to vrlo statično mjesto. 3 00:00:04,990 --> 00:00:07,235 Mogli ste otići online, mogli ste gledati stranice, 4 00:00:07,235 --> 00:00:09,748 a one su bile postavljene od strane organizacija 5 00:00:09,748 --> 00:00:11,269 koje su imale timove za to 6 00:00:11,269 --> 00:00:13,498 ili vrlo tehnološki stručni pojedinci 7 00:00:13,498 --> 00:00:15,235 za to doba. 8 00:00:15,235 --> 00:00:16,810 S porastom društvenih medija 9 00:00:16,810 --> 00:00:19,209 i društvenih mreža ranih 2000 - tih, 10 00:00:19,209 --> 00:00:21,358 Internet se u potpunosti promijenio 11 00:00:21,358 --> 00:00:24,966 u mjesto gdje velika većina sadržaja 12 00:00:24,966 --> 00:00:28,278 s kojim dolazimo u kontakt je postavljena od strane prosječnih korisnika, 13 00:00:28,278 --> 00:00:30,975 u YouTube videima ili objavama na blogu 14 00:00:30,975 --> 00:00:34,290 ili recenzijama proizvoda ili objavama društvenih medija. 15 00:00:34,290 --> 00:00:36,637 Također je postao puno više interaktivno mjesto, 16 00:00:36,637 --> 00:00:39,274 gdje ljudi uzajamno djeluju, 17 00:00:39,274 --> 00:00:40,970 komentiraju, dijele, 18 00:00:40,970 --> 00:00:42,584 nije da samo čitaju. 19 00:00:42,584 --> 00:00:44,450 Facebook nije jedino mjesto gdje to možete činiti, 20 00:00:44,450 --> 00:00:45,548 ali je najveće, 21 00:00:45,548 --> 00:00:47,332 i služi za ilustriranje podataka. 22 00:00:47,332 --> 00:00:50,809 Facebook ima 1.2 milijardu korisnika na mjesec. 23 00:00:50,809 --> 00:00:52,739 Stoga pola Zemljine internetske populacije 24 00:00:52,739 --> 00:00:54,392 koristi Facebook. 25 00:00:54,392 --> 00:00:56,324 Oni su stranica, zajedno s drugima, 26 00:00:56,324 --> 00:00:59,543 koja je dozvolila ljudima da stvore online personu 27 00:00:59,543 --> 00:01:01,325 s vrlo malo tehničkih vještina, 28 00:01:01,325 --> 00:01:03,801 a ljudi su na to odgovorili postavljanjem 29 00:01:03,801 --> 00:01:05,784 gomile osobnih podataka na mrežu. 30 00:01:05,784 --> 00:01:08,327 Rezultat je da imamo podatke o ponašanju, 31 00:01:08,327 --> 00:01:10,313 podatke o sklonostima, demografske podatke, 32 00:01:10,313 --> 00:01:12,414 za stotine milijuna ljudi, 33 00:01:12,414 --> 00:01:14,440 što je jedinstven slučaj u povijesti. 34 00:01:14,440 --> 00:01:17,000 Kao računalnome znanstveniku, to znači da 35 00:01:17,000 --> 00:01:18,664 sam mogla napraviti modele 36 00:01:18,664 --> 00:01:20,986 koji mogu predvidjeti razne skrivene osobine 37 00:01:20,986 --> 00:01:23,270 za sve vas, a da ni ne znate 38 00:01:23,270 --> 00:01:25,472 da dijelite informacije o tome. 39 00:01:25,472 --> 00:01:27,854 Kao znanstvenici, koristimo to kao pomoć 40 00:01:27,854 --> 00:01:29,968 u načinu kako ljudi komuniciraju online, 41 00:01:29,968 --> 00:01:32,467 ali ima i manje altruističnih primjena, 42 00:01:32,467 --> 00:01:34,848 a problem je u tome što korisnici 43 00:01:34,848 --> 00:01:37,318 ne razumiju baš te tehnike i kako one rade, 44 00:01:37,318 --> 00:01:40,446 a čak i kada bi razumjeli, nemaju puno kontrole nad time. 45 00:01:40,446 --> 00:01:41,936 Ono o čemu želim pričati danas 46 00:01:41,936 --> 00:01:44,638 su neke stvari koje možemo napraviti, 47 00:01:44,638 --> 00:01:47,401 i onda dati neke ideje kako bismo mogli napredovati 48 00:01:47,401 --> 00:01:50,170 da vratimo dio kontrole natrag korisnicima. 49 00:01:50,170 --> 00:01:51,756 Ovo je tvrtka Target. 50 00:01:51,756 --> 00:01:53,080 Nisam ja stavila taj logo 51 00:01:53,080 --> 00:01:55,250 na trbuh ove jadne, trudne žene. 52 00:01:55,250 --> 00:01:57,090 Možda ste čuli ovu anegdotu 53 00:01:57,090 --> 00:01:59,151 objavljenu u časopisu Forbes; 54 00:01:59,151 --> 00:02:01,512 Target je poslao letak 15 godišnjoj djevojci 55 00:02:01,512 --> 00:02:03,222 s reklamama i kuponima 56 00:02:03,222 --> 00:02:05,776 za dječje bočice, pelene i kolijevke 57 00:02:05,776 --> 00:02:07,460 dva tjedna prije no što je rekla 58 00:02:07,460 --> 00:02:09,324 roditeljima da je trudna. 59 00:02:09,324 --> 00:02:12,028 Da, otac je bio zbilja uzrujan. 60 00:02:12,028 --> 00:02:13,744 Rekao je, “Kako je Target saznao 61 00:02:13,744 --> 00:02:15,568 da je ova srednjoškolka trudna 62 00:02:15,568 --> 00:02:17,528 prije nego što je ona rekla roditeljima?” 63 00:02:17,528 --> 00:02:20,149 Ispostavilo se da imaju prošlost kupovine 64 00:02:20,149 --> 00:02:22,450 za stotine tisuća kupaca 65 00:02:22,450 --> 00:02:25,180 te izračunavaju ono što oni nazivaju domet trudnoće, 66 00:02:25,180 --> 00:02:27,512 koji govori ne samo je li žena trudna, 67 00:02:27,512 --> 00:02:29,242 već i koji joj je termin porođaja. 68 00:02:29,242 --> 00:02:30,546 Oni to računaju 69 00:02:30,546 --> 00:02:32,314 ne gledajući samo očite stvari 70 00:02:32,314 --> 00:02:34,826 poput: kupuje li kolijevku ili odjeću za bebe, 71 00:02:34,826 --> 00:02:37,769 nego i stvari kao što su: kupila je 72 00:02:37,769 --> 00:02:39,486 više vitamina no obično, 73 00:02:39,486 --> 00:02:40,950 ili kupila je ručnu torbu 74 00:02:40,950 --> 00:02:42,661 u koju stanu pelene. 75 00:02:42,661 --> 00:02:44,571 Same po sebi, te se kupovine 76 00:02:44,571 --> 00:02:47,040 ne čine kao da otkrivaju mnogo, 77 00:02:47,040 --> 00:02:49,018 ali uzorak takvog ponašanja, 78 00:02:49,018 --> 00:02:52,135 kada ga se stavi u kontekst tisuća drugih ljudi, 79 00:02:52,135 --> 00:02:54,892 zapravo otkriva neka shvaćanja. 80 00:02:54,892 --> 00:02:56,685 To je način na koji predviđamo 81 00:02:56,685 --> 00:02:59,252 stvari o vama u društvenim medijima. 82 00:02:59,252 --> 00:03:02,048 Tražimo male obrasce ponašanja koji, 83 00:03:02,048 --> 00:03:04,730 kada ih otkrijete među milijunima ljudi, 84 00:03:04,730 --> 00:03:07,436 otkrivaju nam razne stvari. 85 00:03:07,436 --> 00:03:09,183 U laboratoriju s mojim kolegama, 86 00:03:09,183 --> 00:03:10,960 razvili smo mehanizme pomoću kojih možemo 87 00:03:10,960 --> 00:03:12,520 prilično precizno predvidjeti stvari 88 00:03:12,520 --> 00:03:14,245 poput vaše političke preferencije, 89 00:03:14,245 --> 00:03:17,997 tipa osobnosti, spol, seksualnu orijentaciju, 90 00:03:17,997 --> 00:03:20,870 vjeru, dob, inteligenciju, 91 00:03:20,870 --> 00:03:22,264 zajedno sa stvarima poput 92 00:03:22,264 --> 00:03:24,201 koliko vjerujete ljudima koje poznajete 93 00:03:24,201 --> 00:03:26,005 i koliko su jake te veze. 94 00:03:26,005 --> 00:03:27,790 Sve to jako dobro radimo. 95 00:03:27,790 --> 00:03:29,987 I opet, to ne dolazi od onoga 96 00:03:29,987 --> 00:03:32,089 što vam se čini kao očiti izvor informacija. 97 00:03:32,089 --> 00:03:34,370 Moj najdraži primjer iz ovog je istraživanja 98 00:03:34,370 --> 00:03:35,610 koje je objavljeno ove godine 99 00:03:35,610 --> 00:03:37,405 u broju časopisa Postupci Nacionalne Akademije S.A.D. 100 00:03:37,405 --> 00:03:38,690 Ako ga guglate, pronaći ćete ga. 101 00:03:38,690 --> 00:03:40,562 Ima četiri stranice, lak je za čitanje. 102 00:03:40,562 --> 00:03:43,565 Gledali su samo “lajkove” na Facebooku, 103 00:03:43,565 --> 00:03:45,485 samo one stvari koje vam se sviđaju, 104 00:03:45,485 --> 00:03:47,623 te su ih koristili za predviđanje ovih obilježja, 105 00:03:47,623 --> 00:03:49,268 zajedno s još nekim drugima. 106 00:03:49,268 --> 00:03:52,229 U svojem radu nabrojali su pet “lajkova“ 107 00:03:52,229 --> 00:03:55,016 koji su najviše ukazivali na visok stupanj inteligencije. 108 00:03:55,016 --> 00:03:57,340 A među njima bila je stranica 109 00:03:57,340 --> 00:03:59,245 za kovrčave krumpiriće. (Smijeh) 110 00:03:59,245 --> 00:04:01,338 Kovrčavi krumpirići zbilja su ukusni, 111 00:04:01,338 --> 00:04:03,868 no ako ste ih označili da vam se sviđaju, 112 00:04:03,868 --> 00:04:05,948 ne znači da ste pametniji od prosječne osobe. 113 00:04:05,948 --> 00:04:09,155 Stoga, kako da je jedan od snažnijih indikatora 114 00:04:09,155 --> 00:04:10,725 vaše inteligencije 115 00:04:10,725 --> 00:04:12,172 “lajkanje” stranice 116 00:04:12,172 --> 00:04:14,424 čiji je sadržaj u potpunosti ireleventan 117 00:04:14,424 --> 00:04:16,951 za atribut koji predviđa? 118 00:04:16,951 --> 00:04:18,535 Ispostavlja se da moramo sagledati 119 00:04:18,535 --> 00:04:20,153 golemi broj temeljnih teorija 120 00:04:20,153 --> 00:04:22,722 da bismo mogli vidjeti zašto možemo to predvidjeti. 121 00:04:22,722 --> 00:04:25,635 Jedna od njih je sociološka teorija imena homofilija, 122 00:04:25,635 --> 00:04:28,727 koja u biti govori da su ljudi prijatelji s onima koji su im slični. 123 00:04:28,727 --> 00:04:30,741 Stoga, ako ste pametni, težite biti prijatelj s takvima 124 00:04:30,741 --> 00:04:33,371 ako ste mladi, težite biti prijatelj s mladim ljudima, 125 00:04:33,371 --> 00:04:34,998 i to je uzorak koji je utvrđen 126 00:04:34,998 --> 00:04:36,743 već stotinama godina. 127 00:04:36,743 --> 00:04:37,975 Također znamo mnogo o tome 128 00:04:37,975 --> 00:04:40,525 kako se informacije šire mrežama. 129 00:04:40,525 --> 00:04:42,279 Ispostavlja se da se stvari poput viralnih videa, 130 00:04:42,279 --> 00:04:44,685 “lajkova” na Facebooku ili drugih informacija 131 00:04:44,685 --> 00:04:46,573 šire na potpuno jednak način 132 00:04:46,573 --> 00:04:49,027 kako se zarazne bolesti šire, ali kroz društvene mreže. 133 00:04:49,027 --> 00:04:50,818 To je nešto što smo proučavali dugo vremena. 134 00:04:50,818 --> 00:04:52,394 Imamo dobre modele tog obrasca. 135 00:04:52,394 --> 00:04:54,551 Možete posložiti pojave poput te 136 00:04:54,551 --> 00:04:57,639 i uvidjeti zašto se takve stvari događaju. 137 00:04:57,639 --> 00:04:59,453 Pa, ako bi vam dala hipotezu, 138 00:04:59,453 --> 00:05:02,680 ona bi glasila da je pametan tip pokrenuo tu stranicu, 139 00:05:02,680 --> 00:05:04,619 ili nekoliko prvih ljudi koji su ju “lajkali” 140 00:05:04,619 --> 00:05:06,355 su postigli visoke rezultate na ispitu inteligencije. 141 00:05:06,355 --> 00:05:08,643 Svidjela im se, njihovi su je prijatelji vidjeli, 142 00:05:08,643 --> 00:05:11,765 i prema načelu homofilije znamo da su vjerojatno imali pametne prijatelje 143 00:05:11,765 --> 00:05:14,821 pa se to proširilo do njih, neki od njih su ju “lajkali”, 144 00:05:14,821 --> 00:05:16,010 a i oni su imali pametne prijatelje, 145 00:05:16,010 --> 00:05:16,817 pa se proširilo do njih, 146 00:05:16,817 --> 00:05:18,790 tako se propagira kroz mrežu 147 00:05:18,790 --> 00:05:21,359 koristeći pametne ljude kao domaćine, 148 00:05:21,359 --> 00:05:23,415 stoga je na kraju čin sviđanja 149 00:05:23,415 --> 00:05:25,959 stranice kovrčavih krumpirića 150 00:05:25,959 --> 00:05:27,574 postao indikacija visoke inteligencije, 151 00:05:27,574 --> 00:05:29,377 ne zbog njezina sadržaja, 152 00:05:29,377 --> 00:05:31,899 već zato što sam pritisak na gumb sviđanja 153 00:05:31,899 --> 00:05:33,799 zrcali učestale atribute 154 00:05:33,799 --> 00:05:36,267 ljudi koji su ga pritisnuli. 155 00:05:36,267 --> 00:05:39,164 Ovo su poprilično komplicirane stvari, jelda? 156 00:05:39,164 --> 00:05:41,363 Teško je sjesti i objasniti to 157 00:05:41,363 --> 00:05:44,211 prosječnom korisniku, no čak i ako to učinite, 158 00:05:44,211 --> 00:05:46,399 što može prosječan korisnik u vezi toga napraviti? 159 00:05:46,399 --> 00:05:48,447 Kako znate da nešto što ste “lajkali” 160 00:05:48,447 --> 00:05:49,939 indicira vašu osobinu 161 00:05:49,939 --> 00:05:53,484 koja je u potpunosti nepovezana sa sadržajem onoga što ste “lajkali”? 162 00:05:53,484 --> 00:05:56,030 Postoji puno snage koju korisnici nemaju 163 00:05:56,030 --> 00:05:58,260 za kontrolu kako se koriste ti podatci. 164 00:05:58,260 --> 00:06:01,372 i vidim to kao velik problem gledajući unaprijed. 165 00:06:01,372 --> 00:06:03,349 Mislim da postoji nekoliko načina 166 00:06:03,349 --> 00:06:04,350 koje želimo sagledati 167 00:06:04,350 --> 00:06:06,260 ako bismo korisnicima donekle dali kontrolu 168 00:06:06,260 --> 00:06:08,000 nad time kako se koriste ti podatci, 169 00:06:08,000 --> 00:06:09,940 jer neće uvijek biti iskorišteni 170 00:06:09,940 --> 00:06:11,321 u njihovu korist. 171 00:06:11,321 --> 00:06:12,743 Primjer koji često dajem jest, 172 00:06:12,743 --> 00:06:14,389 ako mi ikad dosadi biti profesor, 173 00:06:14,389 --> 00:06:16,042 pokrenut ću kompaniju 174 00:06:16,042 --> 00:06:17,496 koja predviđa sve te atribute 175 00:06:17,496 --> 00:06:19,098 i stvari kao što su, radite li dobro u timu, 176 00:06:19,098 --> 00:06:21,769 koristite li droge, jeste li alkoholičar. 177 00:06:21,769 --> 00:06:23,209 Sve to znamo predvidjeti. 178 00:06:23,209 --> 00:06:24,970 I prodavat ću izvješća 179 00:06:24,970 --> 00:06:27,070 kompanijama ljudskih resursa i velikim tvrtkama 180 00:06:27,070 --> 00:06:29,343 koje vas žele zaposliti. 181 00:06:29,343 --> 00:06:30,520 Mi to možemo napraviti. 182 00:06:30,520 --> 00:06:32,308 Mogla bih pokrenuti taj posao sutra, 183 00:06:32,308 --> 00:06:34,360 a vi ne biste imali apsolutno nikakvu kontrolu 184 00:06:34,360 --> 00:06:36,498 nada mnom koja koristim vaše podatke na taj način. 185 00:06:36,498 --> 00:06:38,790 To mi se čini kao problem. 186 00:06:38,790 --> 00:06:40,700 Jedan put kojim možemo poći 187 00:06:40,700 --> 00:06:42,732 je put politike i prava. 188 00:06:42,732 --> 00:06:45,778 I u nekim pogledima, mislim da bi to bilo najučinkovitije, 189 00:06:45,778 --> 00:06:48,534 no problem je da bismo to zbilja morali napraviti. 190 00:06:48,534 --> 00:06:51,314 Promatrajući naše političke procese u akciji 191 00:06:51,314 --> 00:06:53,693 čini mi se da je malo vjerojatno 192 00:06:53,693 --> 00:06:55,290 da ćemo dobiti gomilu predstavnika 193 00:06:55,290 --> 00:06:57,276 koji će sjesti, naučiti o tome 194 00:06:57,276 --> 00:06:59,382 i onda donijeti dalekosežne promjene 195 00:06:59,382 --> 00:07:01,539 u američke zakone o intelektualnom vlasništvu 196 00:07:01,539 --> 00:07:04,000 da bi korisnici mogli kontrolirati svoje podatke. 197 00:07:04,000 --> 00:07:05,304 Možemo krenuti putem politike, 198 00:07:05,304 --> 00:07:06,783 gdje kompanije društvenih medija kažu: 199 00:07:06,783 --> 00:07:08,185 znate što? Vi posjedujete podatke. 200 00:07:08,185 --> 00:07:10,674 Imate potpunu kontrolu nad time kako se koriste. 201 00:07:10,674 --> 00:07:12,522 Problem je u tome što se modeli prihoda 202 00:07:12,522 --> 00:07:14,246 za većinu kompanija društvenih medija 203 00:07:14,246 --> 00:07:18,277 oslanjaju na dijeljenje ili, na neki način, iskorištavanje podataka korisnika. 204 00:07:18,277 --> 00:07:20,110 Ponekad se kaže za Facebook da korisnici 205 00:07:20,110 --> 00:07:22,638 nisu mušterije, već proizvod. 206 00:07:22,638 --> 00:07:25,352 Stoga kako natjerati kompaniju 207 00:07:25,352 --> 00:07:27,910 da korisnicima vrati kontrolu 208 00:07:27,910 --> 00:07:29,159 nad njihovom glavnom imovinom? 209 00:07:29,159 --> 00:07:30,860 Moguće je, ali ne mislim da je to promjena 210 00:07:30,860 --> 00:07:33,180 koju ćemo ubrzo vidjeti. 211 00:07:33,180 --> 00:07:34,680 Stoga mislim da će drugi put 212 00:07:34,680 --> 00:07:36,968 kojim možemo poći biti djelotvorniji 213 00:07:36,968 --> 00:07:38,476 i to je onaj sa više znanosti. 214 00:07:38,476 --> 00:07:40,986 Prije svega, znanost nam dopušta razvijanje 215 00:07:40,986 --> 00:07:42,736 svih ovih mehanizama za računanje 216 00:07:42,736 --> 00:07:44,788 osobnih podataka. 217 00:07:44,788 --> 00:07:46,894 I zapravo bismo morali provesti 218 00:07:46,894 --> 00:07:48,332 vrlo slično istraživanje 219 00:07:48,332 --> 00:07:50,718 ako bismo htjeli razviti mehanizme 220 00:07:50,718 --> 00:07:52,139 koji bi korisniku rekli: 221 00:07:52,139 --> 00:07:54,368 “Ovo je rizik radnje koju ste upravo napravili.” 222 00:07:54,368 --> 00:07:56,448 Lajkanjem te Facebook stranice 223 00:07:56,448 --> 00:07:58,983 ili dijeljenjem ove osobne informacije, 224 00:07:58,983 --> 00:08:00,485 upravo ste poboljšali moju sposobnost 225 00:08:00,485 --> 00:08:02,571 predviđanja koristite li droge, 226 00:08:02,571 --> 00:08:05,433 ili slažete li se na radnom mjestu. 227 00:08:05,433 --> 00:08:07,281 A to mislim da bi moglo 228 00:08:07,281 --> 00:08:08,791 utjecati na želju ljudi da nešto podijele, 229 00:08:08,791 --> 00:08:12,030 zadrže to privatnim, ili uopće ne stave online. 230 00:08:12,030 --> 00:08:13,593 Možemo se također osvrnuti na stvari 231 00:08:13,593 --> 00:08:16,321 poput dopuštanja ljudima da kodiraju podatke koje su objavili, 232 00:08:16,321 --> 00:08:18,176 pa oni postaju nevidljivi i beskorisni 233 00:08:18,176 --> 00:08:19,607 stranicama poput Facebooka 234 00:08:19,607 --> 00:08:22,236 ili uslugama trećih stranaka koje im imaju pristup, 235 00:08:22,236 --> 00:08:25,483 ali da odabrani korisnici 236 00:08:25,483 --> 00:08:28,153 za koje vlasnici žele da vide informacije ih mogu i vidjeti. 237 00:08:28,153 --> 00:08:30,319 Ovo je vrlo uzbudljivo istraživanje 238 00:08:30,319 --> 00:08:31,939 iz intelektualne perspektive, 239 00:08:31,939 --> 00:08:33,798 stoga će ga znanstvenici biti voljni napraviti. 240 00:08:33,798 --> 00:08:37,408 To nam daje prednost pred zakonskom stranom. 241 00:08:37,408 --> 00:08:39,133 Jedan od problema koji ljudi spomenu 242 00:08:39,133 --> 00:08:40,728 kada pričam o ovome jest, kažu, 243 00:08:40,728 --> 00:08:43,374 znate, ako ljudi počnu zadržavati sve svoje podatke privatnima, 244 00:08:43,374 --> 00:08:45,487 sve ove metode koje ste razvijali 245 00:08:45,487 --> 00:08:48,140 za predviđanje njihovih osobina će propasti. 246 00:08:48,140 --> 00:08:51,660 A ja kažem, apsolutno, i za mene je to uspjeh, 247 00:08:51,660 --> 00:08:53,446 jer kao znanstveniku, 248 00:08:53,446 --> 00:08:57,134 moj cilj nije dolaziti do informacija o korisnicima, 249 00:08:57,134 --> 00:08:59,901 već poboljšati način kako ljudi međusobno komuniciraju online. 250 00:08:59,901 --> 00:09:03,119 Ponekad to uključuje saznavanje njihovih informacija, 251 00:09:03,119 --> 00:09:06,141 ali ako korisnici ne žele da koristim te podatke, 252 00:09:06,141 --> 00:09:08,179 mislim da bi trebali imati to pravo i učiniti. 253 00:09:08,179 --> 00:09:10,830 Želim da korisnici budu informirani 254 00:09:10,830 --> 00:09:12,942 i da prihvaćaju alate koje razvijamo. 255 00:09:12,942 --> 00:09:15,894 Mislim da ohrabrivanje ove vrste znanosti 256 00:09:15,894 --> 00:09:17,240 i podupiranje istraživača 257 00:09:17,240 --> 00:09:20,263 koji žele povratiti dio kontrole korisnicima 258 00:09:20,263 --> 00:09:22,574 od kompanija društvenih medija 259 00:09:22,574 --> 00:09:25,245 znači da idući naprijed, kako se ova oruđa razvijaju 260 00:09:25,245 --> 00:09:26,721 i napreduju, 261 00:09:26,721 --> 00:09:28,135 imat ćemo obrazovanu 262 00:09:28,135 --> 00:09:29,829 i osposobljenu bazu korisnika, 263 00:09:29,829 --> 00:09:30,929 te mislim da se svi možemo složiti 264 00:09:30,929 --> 00:09:33,493 da je to prilično idealan način za napredovanje. 265 00:09:33,493 --> 00:09:35,677 Hvala. 266 00:09:35,677 --> 00:09:38,757 (Pljesak)