1 00:00:10,847 --> 00:00:13,799 U redu, Portland, opa. Mnogo vam hvala što ste me pozvali. 2 00:00:14,038 --> 00:00:15,498 Volim da posećujem vaš grad. 3 00:00:15,522 --> 00:00:18,625 Mislim, gde na svetu bih imao ovakav doručak. 4 00:00:18,649 --> 00:00:20,315 (Smeh) 5 00:00:20,339 --> 00:00:23,632 I ovo je očigledno mesto sa mnogo kreativaca. 6 00:00:23,815 --> 00:00:25,111 (Smeh) 7 00:00:25,135 --> 00:00:27,424 Koliko vas su kreativci, 8 00:00:27,448 --> 00:00:31,072 dizajneri, inženjeri, preduzetnici, umetnici 9 00:00:31,096 --> 00:00:33,483 ili možda prosto imate veoma bujnu maštu? 10 00:00:33,507 --> 00:00:35,355 Pokažite ruke? (Klicanje) 11 00:00:35,379 --> 00:00:36,560 To je većina vas. 12 00:00:37,734 --> 00:00:40,028 Imam novosti za nas kreativce. 13 00:00:41,114 --> 00:00:43,687 U narednih 20 godina, 14 00:00:45,871 --> 00:00:48,844 više će se promeniti način na koji obavljamo naše poslove 15 00:00:49,782 --> 00:00:51,939 nego u poslednjih 2000 godina. 16 00:00:52,768 --> 00:00:57,396 Zapravo, mislim da smo u praskozorju novog doba u ljudskoj istoriji. 17 00:00:58,045 --> 00:01:02,624 Sad, imali smo četiri značajne istorijske ere, definisane načinom našeg rada. 18 00:01:03,804 --> 00:01:07,079 Doba lovaca i sakupljača koje je trajalo nekoliko miliona godina. 19 00:01:07,563 --> 00:01:11,139 A potom zemljoradničko doba koje je trajalo nekoliko hiljada godina. 20 00:01:11,405 --> 00:01:14,895 Industrijsko doba je trajalo nekoliko vekova. 21 00:01:14,919 --> 00:01:18,728 A sadašnje informaciono doba je trajalo svega nekoliko decenija. 22 00:01:19,230 --> 00:01:24,450 Trenutno smo kao vrsta na samom početku naše nove značajne ere. 23 00:01:25,506 --> 00:01:28,186 Dobro došli u prošireno doba. 24 00:01:28,210 --> 00:01:31,903 U ovoj novoj eri, vaše prirodne ljudske sposobnosti će da budu proširene 25 00:01:31,927 --> 00:01:34,995 uz pomoć računarskih sistema koji vam pomažu da razmišljate, 26 00:01:35,119 --> 00:01:37,305 robotskih sistema koji vam pomažu da stvarate 27 00:01:37,329 --> 00:01:38,977 i digitalnih nervnih sistema 28 00:01:39,001 --> 00:01:42,691 koji vas povezuju sa svetom daleko izvan vaših prirodnih čula. 29 00:01:44,947 --> 00:01:46,889 Započnimo kognitivnim proširenjem. 30 00:01:46,913 --> 00:01:49,113 Koliko vas su prošireni kiborzi? 31 00:01:49,270 --> 00:01:51,545 (Smeh) 32 00:01:51,569 --> 00:01:53,084 Ima tu tri ili četiri kiborga, 33 00:01:53,108 --> 00:01:54,791 to je prosto tako u Portlandu. 34 00:01:54,815 --> 00:01:58,025 (Smeh) 35 00:01:58,049 --> 00:01:59,231 Da, ostanite čudaci. 36 00:01:59,255 --> 00:02:01,543 (Smeh) 37 00:02:01,567 --> 00:02:04,388 Ja bih zapravo rekao da smo svi mi prošireni. 38 00:02:05,048 --> 00:02:06,552 Zamislite da ste na zabavi 39 00:02:06,576 --> 00:02:10,096 i neko vam postavi pitanje na koje ne znate odgovor. 40 00:02:10,120 --> 00:02:13,880 Ako imate nešto slično ovome, za nekoliko sekundi možete znati odgovor. 41 00:02:14,629 --> 00:02:16,928 Ali ovo je tek primitivni početak. 42 00:02:17,623 --> 00:02:20,954 Čak je i Siri tek pasivno oruđe. 43 00:02:21,420 --> 00:02:24,801 Zapravo, u poslednjih tri i po miliona godina, 44 00:02:24,825 --> 00:02:28,348 oruđa koja smo imali su bila potpuno pasivna. 45 00:02:29,563 --> 00:02:33,218 Ona rade tačno ono što im kažemo i ništa više. 46 00:02:33,242 --> 00:02:36,343 Naše prvo oruđe je jedino seklo onde gde bismo udarili njime. 47 00:02:37,382 --> 00:02:40,422 Dleto rezbari samo onde gde ga umetnik usmeri. 48 00:02:40,818 --> 00:02:46,544 Čak i naša najnaprednija oruđa ne rade bilo šta bez naših eksplicitnih naredbi. 49 00:02:47,598 --> 00:02:50,779 Zapravo, do danas, a to je nešto što me nervira, 50 00:02:50,803 --> 00:02:52,251 oduvek smo bili ograničeni 51 00:02:52,275 --> 00:02:55,776 potrebom da ručno uteramo našu volju u naše alate - 52 00:02:55,800 --> 00:02:58,097 ručno, bukvalno koristeći naše ruke, 53 00:02:58,121 --> 00:02:59,549 čak i sa kompjuterima. 54 00:03:00,662 --> 00:03:03,125 No ja sam više nalik Skotiju iz "Zvezdanih staza". 55 00:03:03,149 --> 00:03:04,999 (Smeh) 56 00:03:05,023 --> 00:03:07,169 Želim da razgovaram s kompjuterom. 57 00:03:07,193 --> 00:03:10,163 Želim da kažem: "Kompjuteru, hajde da dizajniramo automobil", 58 00:03:10,187 --> 00:03:11,726 i kompjuter mi pokaže automobil. 59 00:03:11,750 --> 00:03:14,358 A ja kažem: "Ne, da izgleda brže i manje nemački", 60 00:03:14,382 --> 00:03:16,545 i, bum, kompjuter mi pokaže opciju. 61 00:03:16,569 --> 00:03:18,434 (Smeh) 62 00:03:18,798 --> 00:03:21,104 Taj razgovor je možda malčice daleko, 63 00:03:21,128 --> 00:03:23,793 verovatno manje nego što većina nas misli, 64 00:03:23,817 --> 00:03:25,580 ali trenutno 65 00:03:25,604 --> 00:03:26,755 radimo na tome. 66 00:03:26,779 --> 00:03:30,812 Oruđa prave ovaj skok od pasivnih do stvaralačkih. 67 00:03:31,421 --> 00:03:36,069 Stvaralačka dizajnerska oruđa koriste kompjutere i algoritme, 68 00:03:36,093 --> 00:03:38,901 da bi tim spojem stvorila geometriju 69 00:03:38,925 --> 00:03:41,679 i potpuno sama došla do novih dizajna. 70 00:03:42,126 --> 00:03:44,874 Sve što im je potrebno su vaši ciljevi i vaša ograničenja. 71 00:03:44,898 --> 00:03:46,306 Daću vam jedan primer. 72 00:03:46,330 --> 00:03:49,118 U slučaju ove vazdušne šasije drona, 73 00:03:49,142 --> 00:03:51,768 sve što bi trebalo da uradite je da tražite sledeće: 74 00:03:51,792 --> 00:03:53,065 da ima četiri propelera, 75 00:03:53,089 --> 00:03:55,220 želite da bude što lakša 76 00:03:55,244 --> 00:03:57,514 i želite da ima aerodinamičnu efikasnost. 77 00:03:57,538 --> 00:04:02,452 Potom kompjuter istražuje celokupan prostor rešenja: 78 00:04:02,476 --> 00:04:06,403 baš svaku mogućnost koja rešava i ispunjava vaše kriterijume - 79 00:04:06,427 --> 00:04:07,853 milione njih. 80 00:04:07,853 --> 00:04:09,888 Potrebni su veliki kompjuteri da to obave. 81 00:04:09,892 --> 00:04:11,847 Ali su nam uzvratili dizajnima 82 00:04:11,871 --> 00:04:15,014 koje mi sami ne bismo nikad mogli da zamislimo. 83 00:04:15,456 --> 00:04:18,368 A kompjuter je sam došao do ovoga - 84 00:04:18,392 --> 00:04:20,070 niko nikad nije nacrtao bilo šta - 85 00:04:20,094 --> 00:04:22,180 i započeo je potpuno od nule. 86 00:04:23,168 --> 00:04:25,555 I, usput, nije slučajno 87 00:04:25,579 --> 00:04:29,060 da telo drona izgleda baš kao karlica leteće veverice. 88 00:04:29,231 --> 00:04:32,146 (Smeh) 89 00:04:32,170 --> 00:04:34,472 To je tako jer su algoritmi dizajnirani da deluju 90 00:04:34,496 --> 00:04:36,133 na isti način kao evolucija. 91 00:04:37,045 --> 00:04:39,705 Uzbudljivo je što počinjemo da gledamo ovu tehnologiju 92 00:04:39,729 --> 00:04:40,888 u stvarnom svetu. 93 00:04:40,912 --> 00:04:43,364 Nekoliko godina smo radili sa Erbasom 94 00:04:43,388 --> 00:04:45,297 na konceptu aviona iz budućnosti. 95 00:04:45,321 --> 00:04:47,391 I dalje je ispred svog vremena. 96 00:04:47,415 --> 00:04:51,195 Ali baš nedavno smo koristili generativni dizajn veštačke inteligencije 97 00:04:51,219 --> 00:04:53,026 da bismo smislili ovo. 98 00:04:53,939 --> 00:04:59,092 Ovo je pregrada odštampana 3D štampačem, koju je dizajnirao kompjuter. 99 00:04:59,116 --> 00:05:01,940 Jača je od prvobitne, a ipak je upola lakša 100 00:05:01,964 --> 00:05:05,110 i leteće u erbasu A320 kasnije ove godine. 101 00:05:06,835 --> 00:05:09,024 Kompjuteri sad mogu da stvaraju; 102 00:05:09,048 --> 00:05:13,643 mogu da osmisle sopstvena rešenja za naše dobro definisane probleme. 103 00:05:14,737 --> 00:05:16,047 Ali nisu intuitivni. 104 00:05:16,071 --> 00:05:19,157 I dalje moraju da počnu od nule, baš svaki put, 105 00:05:19,181 --> 00:05:21,871 a to je zato što nikad ne nauče. 106 00:05:22,768 --> 00:05:24,534 Za razliku od Megi. 107 00:05:24,558 --> 00:05:26,139 (Smeh) 108 00:05:26,163 --> 00:05:29,460 Megi je zapravo pametnija od naših najnaprednijih dizajnerskih oruđa. 109 00:05:29,867 --> 00:05:31,367 Šta podrazumevam time? 110 00:05:31,391 --> 00:05:32,981 Ako njen vlasnik uzme povodac, 111 00:05:33,005 --> 00:05:35,073 Megi zna s porpiličnim stepenom izvesnosti 112 00:05:35,097 --> 00:05:36,501 da je vreme za šetnju. 113 00:05:36,525 --> 00:05:37,710 A kako je naučila? 114 00:05:37,734 --> 00:05:41,058 Pa, svaki put kad je vlasnik uzeo povodac, išli su u šetnju. 115 00:05:41,082 --> 00:05:42,960 I Megi je obavila tri stvari: 116 00:05:42,984 --> 00:05:44,853 morala je da obrati pažnju, 117 00:05:44,877 --> 00:05:46,959 morala je da se priseti šta se desilo 118 00:05:46,983 --> 00:05:51,000 i morala je da zadrži i stvori obrazac u svom umu. 119 00:05:51,889 --> 00:05:53,984 Zanimljivo je da je upravo to ono što 120 00:05:54,008 --> 00:05:56,581 naučnici za kompjutere pokušavaju da navedu VI da uradi 121 00:05:56,581 --> 00:05:58,414 u poslednjih oko 60 godina. 122 00:05:59,783 --> 00:06:01,132 Te 1952. 123 00:06:01,156 --> 00:06:04,957 su sagradili ovaj kompjuter koji je mogao da igra iks-oks. 124 00:06:06,181 --> 00:06:07,341 Velika stvar. 125 00:06:08,129 --> 00:06:11,129 Potom, 45 godina kasnije, 1997. 126 00:06:11,153 --> 00:06:13,625 Deep Blue je pobedio Kasparova u šahu. 127 00:06:15,146 --> 00:06:20,114 Godine 2011, Watson je pobedio ova dva čoveka u kvizu, 128 00:06:20,138 --> 00:06:23,066 što je daleko teže za kompjuter da iga od šaha. 129 00:06:23,090 --> 00:06:26,902 Zapravo, umesto da radi na osnovu već definisanih recepata, 130 00:06:26,926 --> 00:06:30,479 Votson je morao da koristi rasuđivanje da bi prevazišao ljudske protivnike. 131 00:06:31,493 --> 00:06:33,932 A onda, pre nekoliko nedelja, 132 00:06:33,956 --> 00:06:38,218 AlphaGo iz DeepMind-a je pobedio ljudsko biće koje je najbolje u gou, 133 00:06:38,242 --> 00:06:40,454 a to je najkomplikovanija igra koju imamo. 134 00:06:40,478 --> 00:06:43,974 Zapravo, ima više mogućih poteza u gou 135 00:06:43,998 --> 00:06:46,022 nego što ima atoma u univerzumu. 136 00:06:47,910 --> 00:06:49,736 Pa, kako bi pobedio, 137 00:06:49,760 --> 00:06:52,774 AlphaGo je morao da razvije intuiciju. 138 00:06:52,798 --> 00:06:56,908 I zapravo, u nekim momentima programeri AlphaGo-a nisu razumeli 139 00:06:56,932 --> 00:06:59,218 zašto je AlphaGo radio to što radi. 140 00:07:01,151 --> 00:07:02,811 A stvari se odvijaju zaista brzo. 141 00:07:02,835 --> 00:07:06,062 Mislim, razmotrite - u okviru ljudskog životnog veka, 142 00:07:06,086 --> 00:07:08,319 kompjuteri su prešli od dečje igre 143 00:07:09,620 --> 00:07:12,668 do onoga što se smatra vrhuncem strateškog mišljenja. 144 00:07:13,699 --> 00:07:16,116 U suštini se dešava to 145 00:07:16,140 --> 00:07:19,450 da kompjuteri prestaju da budu poput Spoka 146 00:07:20,474 --> 00:07:22,423 i postaju mnogo više nalik Kirku. 147 00:07:22,447 --> 00:07:26,065 (Smeh) 148 00:07:26,089 --> 00:07:29,513 Je li tako? Od čiste logike do intuicije. 149 00:07:31,584 --> 00:07:33,327 Da li biste prešli ovaj most? 150 00:07:34,009 --> 00:07:36,332 Većina vas govori: "Uh, nema šanse!" 151 00:07:36,356 --> 00:07:37,664 (Smeh) 152 00:07:37,688 --> 00:07:40,345 A stigli ste do te odluke u deliću sekunde. 153 00:07:40,369 --> 00:07:42,797 Prosto ste nekako znali da taj most nije bezbedan. 154 00:07:42,821 --> 00:07:44,810 A upravo je to tip intuicije 155 00:07:44,834 --> 00:07:48,402 koju naši sistemi dubinskog učenja trenutno počinju da razvijaju. 156 00:07:49,122 --> 00:07:50,593 Veoma brzo ćete bukvalno moći 157 00:07:50,593 --> 00:07:53,782 da pokažete kompjuteru nešto što ste napravili, što ste dizajnirali 158 00:07:53,806 --> 00:07:55,439 i on će to da pogleda i kaže: 159 00:07:55,463 --> 00:07:58,286 "Izvini, druže, to neće proći. Moraš opet da pokušaš." 160 00:07:59,254 --> 00:08:02,594 Ili ćete moći da ga pitate da li će se ljudima sviđati vaša nova pesma 161 00:08:03,173 --> 00:08:05,236 ili vaš novi ukus sladoleda. 162 00:08:06,949 --> 00:08:09,432 Ili, što je još važnije, 163 00:08:09,432 --> 00:08:12,006 moći ćete raditi sa kompjuterom da biste rešili problem 164 00:08:12,006 --> 00:08:13,577 s kojim se pre nismo suočili. 165 00:08:13,601 --> 00:08:15,002 Na primer, klimatske promene. 166 00:08:15,026 --> 00:08:17,046 Sami ne obavljamo posao naročito dobro, 167 00:08:17,070 --> 00:08:19,315 svakako da bi nam koristila sva moguća pomoć. 168 00:08:19,339 --> 00:08:20,791 O tome govorim, 169 00:08:20,791 --> 00:08:23,406 o tehnologiji koja naglašava naše kognitivne sposobnosti 170 00:08:23,406 --> 00:08:26,952 kako bismo mogli da zamislimo i dizajniramo stvari koje nisu dostupne 171 00:08:26,976 --> 00:08:29,535 nama, prostim starim neproširenim ljudima. 172 00:08:31,384 --> 00:08:34,375 Pa, o čemu se radi kod stvaranja svih tih blesavih novih stvari 173 00:08:34,375 --> 00:08:36,790 koje ćemo izumeti i dizajnirati? 174 00:08:37,352 --> 00:08:41,445 Mislim da se u eri ljudskog proširivanja podjednako radi o fizičkom svetu 175 00:08:41,469 --> 00:08:44,534 kao i o virtuelnoj, intelektualnoj sferi. 176 00:08:45,233 --> 00:08:47,154 Kako će nas tehnologija proširiti? 177 00:08:47,565 --> 00:08:50,038 U fizičkom svetu, biće to robotski sistemi. 178 00:08:51,620 --> 00:08:53,356 U redu, svakako da postoji strah 179 00:08:53,380 --> 00:08:55,868 da će roboti da oduzmu poslove ljudima, 180 00:08:55,892 --> 00:08:57,722 to je tačno za određene sektore. 181 00:08:58,174 --> 00:09:01,052 No, mene više zanima zamisao 182 00:09:01,076 --> 00:09:06,086 da će ljudi i roboti radeći zajedno proširiti jedni druge, 183 00:09:06,110 --> 00:09:08,022 i počeće da naseljavaju nove prostore. 184 00:09:08,022 --> 00:09:10,854 Ovo je primenjena istraživačka laboratorija u San Francisku, 185 00:09:10,854 --> 00:09:13,920 gde je napredna robotika jedna od oblasti na koje se fokusiramo, 186 00:09:13,920 --> 00:09:16,255 naročito saradnja između ljudi i robota. 187 00:09:17,034 --> 00:09:19,793 A ovo je Bišop, jedan od naših robota. 188 00:09:19,817 --> 00:09:21,606 Kao eksperiment, podesili smo ga 189 00:09:21,630 --> 00:09:25,090 da pomaže osobi koja na građevini obavlja repetitivne poslove - 190 00:09:25,984 --> 00:09:30,178 poslove poput bušenja rupa u gips-kartonu za utičnice ili prekidače za svetla. 191 00:09:30,202 --> 00:09:32,668 (Smeh) 192 00:09:33,877 --> 00:09:36,952 Dakle, Bišopov ljudski partner može da mu objasni na engleskom 193 00:09:36,952 --> 00:09:38,407 i jednostavnom gestikulacijom, 194 00:09:38,407 --> 00:09:39,788 poput razgovaranja sa psom, 195 00:09:39,812 --> 00:09:41,955 a potom Bišop, izvodi ta uputstva 196 00:09:41,979 --> 00:09:43,871 savršenom preciznošću. 197 00:09:43,895 --> 00:09:46,884 Koristimo ljude za ono u čemu su dobri: 198 00:09:46,908 --> 00:09:49,241 svesnost, percepcija i donošenje odluka. 199 00:09:49,265 --> 00:09:51,505 A koristimo robota za ono u čemu je dobar: 200 00:09:51,529 --> 00:09:53,277 preciznost i ponavljanje. 201 00:09:54,252 --> 00:09:56,619 Još jedan sjajan projekat na kom je radio Bišop. 202 00:09:56,643 --> 00:09:59,718 Cilj ovog projekta, koga smo nazvali HIVE, 203 00:09:59,742 --> 00:10:03,593 bio je da testira iskustvo ljudi, kompjutera i robota 204 00:10:03,617 --> 00:10:06,977 gde svi rade zajedno kako bi rešili veoma složene dizajnerske probleme. 205 00:10:07,703 --> 00:10:09,294 Ljudi su služili kao radna snaga. 206 00:10:09,294 --> 00:10:12,741 Kružili su po gradilištu, rukovali bambusom - 207 00:10:12,765 --> 00:10:15,521 koji je, usput, stoga što je neizomorfan materijal, 208 00:10:15,545 --> 00:10:17,419 veoma težak robotima za rukovanje. 209 00:10:17,543 --> 00:10:19,865 No, potom su roboti namotavali ovo vlakno, 210 00:10:19,889 --> 00:10:22,340 a to je skoro nemoguće za ljude da urade. 211 00:10:22,364 --> 00:10:25,985 A potom smo imali VI koja je sve kontrolisala. 212 00:10:26,109 --> 00:10:29,399 Govorila je ljudima šta da rade, govorila je robotima šta da rade 213 00:10:29,423 --> 00:10:32,338 i nadgledala hiljade pojedinačnih komponenti. 214 00:10:32,362 --> 00:10:33,542 Zanimljivo je 215 00:10:33,566 --> 00:10:36,707 da je izgradnja ovog paviljona prosto bila nemoguća 216 00:10:36,731 --> 00:10:41,255 bez ljudi, robota i VI koji proširuju jedni druge. 217 00:10:42,390 --> 00:10:45,710 Podeliću sa vama još jedan projekat. Ovaj je malčice blesav. 218 00:10:47,734 --> 00:10:52,202 Radimo sa umetnicima iz Amsterdama, Jorisom Larmanom i njegovom ekipom iz MX3D 219 00:10:53,526 --> 00:10:56,404 da bismo generativno dizajnirali i robotski odštampali 220 00:10:56,428 --> 00:10:59,423 prvi u svetu autonomno proizveden most. 221 00:11:01,015 --> 00:11:04,700 Dakle, Joris i VI baš dok govorimo dizajniraju taj objekat 222 00:11:04,724 --> 00:11:05,896 u Amsterdamu. 223 00:11:06,620 --> 00:11:09,211 A kad završe, pritisnućemo "Kreni" 224 00:11:09,235 --> 00:11:12,546 i roboti će početi 3D tehnologijom da štampaju nerđajući čelik 225 00:11:12,570 --> 00:11:15,853 i nastaviće da štampaju bez ljudskog uplitanja, 226 00:11:15,877 --> 00:11:17,435 sve dok završe most. 227 00:11:18,769 --> 00:11:21,697 Pa, kako će roboti da prošire našu sposobnost 228 00:11:21,721 --> 00:11:23,871 zamišljanja i dizajniranja novih stvari, 229 00:11:23,885 --> 00:11:26,820 robotski sistemi će da nam pomognu da gradimo i pravimo stvari 230 00:11:26,820 --> 00:11:28,898 koje nismo mogli da pravimo pre. 231 00:11:30,017 --> 00:11:34,177 No, šta je s našom sposobnošću da osetimo i kontrolišemo ove stvari? 232 00:11:34,201 --> 00:11:38,232 Kako bi bilo da imamo nervni sistem kod stvari koje pravimo? 233 00:11:40,486 --> 00:11:42,998 Naš nervni sistem, ljudski nervni sistem, 234 00:11:43,022 --> 00:11:45,333 saopštava nam o svemu što se dešava oko nas. 235 00:11:46,086 --> 00:11:49,419 Međutim, nervni sitem stvari koje pravimo je u najboljem slučaju prost. 236 00:11:49,419 --> 00:11:51,578 Rekao bih da je trenutno prilično bezvezan. 237 00:11:51,602 --> 00:11:52,930 (Smeh) 238 00:11:52,954 --> 00:11:56,817 Na primer, automobil ne saopštava gradskom odseku za javne delatnosti 239 00:11:56,841 --> 00:11:59,971 da je upravo udario u rupu na uglu ulice Brodvej i Morison. 240 00:12:01,295 --> 00:12:03,327 Građevina ne sopštava njenim dizajnerima 241 00:12:03,351 --> 00:12:06,035 da li ljudi unutar nje vole da budu tu, 242 00:12:07,659 --> 00:12:10,669 a proizvođač lutaka ne zna 243 00:12:10,693 --> 00:12:12,700 da li se zaista igraju njihovim igračkama - 244 00:12:12,724 --> 00:12:15,263 kako, gde i da li su ili nisu zabavne. 245 00:12:15,880 --> 00:12:19,694 Vidite, siguran sam da su dizajneri zamislili ovakav stil života za barbiku 246 00:12:19,718 --> 00:12:20,942 kada su je dizajnirali. 247 00:12:20,966 --> 00:12:22,413 (Smeh) 248 00:12:23,237 --> 00:12:26,143 Ali šta ako se ispostavi da je barbi zapravo veoma usamljena? 249 00:12:26,167 --> 00:12:30,302 (Smeh) 250 00:12:30,326 --> 00:12:31,614 Kad bi dizajneri znali 251 00:12:31,638 --> 00:12:33,745 šta se zaista dešava u stvarnom svetu 252 00:12:33,769 --> 00:12:36,352 njihovim dizajnima - putevima, građevinama, barbikama - 253 00:12:36,356 --> 00:12:37,780 mogli bi da koriste to znanje 254 00:12:37,780 --> 00:12:39,908 da stvore bolja iskustva za korisnike. 255 00:12:39,908 --> 00:12:42,309 Nedostaje nervni sistem 256 00:12:42,333 --> 00:12:46,042 koji bi nas povezao sa svim stvarima koje dizajniramo, pravimo i koristimo. 257 00:12:46,975 --> 00:12:50,530 Šta kad biste svi vi imali dotok takvog oblika informacija 258 00:12:50,554 --> 00:12:52,737 od stvari koje stvarate u stvarnom svetu? 259 00:12:54,492 --> 00:12:55,943 Uz sve što pravimo, 260 00:12:55,967 --> 00:12:58,402 trošimo ogromne količine novca i energije - 261 00:12:58,426 --> 00:13:00,802 zapravo, prošle godine, skoro dva biliona dolara - 262 00:13:00,826 --> 00:13:03,680 ubeđujući ljude da kupe stvari koje pravimo. 263 00:13:03,704 --> 00:13:07,092 Ali kad biste imali ovakvu vezu sa stvarima koje dizajnirate i stvarate 264 00:13:07,116 --> 00:13:08,843 kada se one nađu u stvarnom svetu, 265 00:13:08,867 --> 00:13:12,481 nakon što ih prodaju ili lansiraju ili šta god, 266 00:13:12,485 --> 00:13:14,165 zapravo bismo mogli to da promenimo 267 00:13:14,165 --> 00:13:17,596 i da se pomerimo od ubeđivanja ljudi da vole naše stvari 268 00:13:17,620 --> 00:13:21,054 do prosto pravljenja stvari koje su ljudima prvenstveno potrebne. 269 00:13:24,478 --> 00:13:27,265 Dobre vesti su da radimo na digitalnom nervnom sistemu 270 00:13:27,289 --> 00:13:30,090 koji bi nas povezao sa stvarima koje dizajniramo. 271 00:13:31,225 --> 00:13:32,852 Radimo na jednom projektu 272 00:13:32,876 --> 00:13:37,888 sa nekoliko momaka iz Los Anđelesa, koji sebe nazivaju Bandito Bradersima, 273 00:13:37,912 --> 00:13:39,319 i njihovom ekipom. 274 00:13:39,343 --> 00:13:42,776 A jedna od stvari koju ovi momci rade je izgradnja ludih automobila 275 00:13:42,800 --> 00:13:45,673 koji rade potpuno lude stvari. 276 00:13:47,065 --> 00:13:48,515 Ovi momci su sumanuti - 277 00:13:48,539 --> 00:13:49,575 (Smeh) 278 00:13:49,599 --> 00:13:51,002 na najbolji način. 279 00:13:54,793 --> 00:13:56,556 A mi s njima radimo 280 00:13:56,580 --> 00:13:59,020 tako što uzmemo tradicionalnu šasiju za trkačka auta 281 00:13:59,044 --> 00:14:00,629 i ugrađujemo nervni sistem u nju. 282 00:14:00,653 --> 00:14:03,771 Dakle, opskrbili smo je desetinama senzora, 283 00:14:03,795 --> 00:14:06,430 stavili smo iza volana vozača svetske klase, 284 00:14:06,454 --> 00:14:09,811 odvezli auto u pustinju vozali ga do besvesti sedam dana. 285 00:14:09,835 --> 00:14:12,326 A nervni sistem automobila je zabeležio 286 00:14:12,350 --> 00:14:13,832 sve što se dešavalo automobilu. 287 00:14:13,856 --> 00:14:16,477 Zabeležili smo četiri milijarde jedinica podataka; 288 00:14:16,501 --> 00:14:18,811 sve sile kojima je bilo izloženo. 289 00:14:18,835 --> 00:14:20,494 A potom smo uradili nešto ludo. 290 00:14:21,238 --> 00:14:22,738 Uzeli smo sve podatke 291 00:14:22,762 --> 00:14:26,498 i priključili ih na VI genrativnog dizajna koju nazivamo "Dreamcatcher". 292 00:14:27,240 --> 00:14:31,204 Pa, šta dobijate kada dizajnerskom oruđu date nervni sistem 293 00:14:31,228 --> 00:14:34,110 i zatražite od njega da vam sagradi najbolju šasiju za auto? 294 00:14:34,693 --> 00:14:36,666 Dobijate ovo. 295 00:14:38,263 --> 00:14:41,976 Ovo je nešto što ljudi nikad ne bi mogli da dizajniraju. 296 00:14:42,677 --> 00:14:44,565 Samo što ljudi ovo jesu dizajnirali, 297 00:14:44,589 --> 00:14:48,842 ali to su bili ljudi prošireni VI generativnog dizajna, 298 00:14:48,842 --> 00:14:50,193 digitalnim nervnim sistemom 299 00:14:50,193 --> 00:14:53,182 i robotima koji zapravo mogu da proizvedu nešto ovakvo. 300 00:14:54,150 --> 00:14:57,745 Pa, ako je ovo budućnost, prošireno doba, 301 00:14:57,769 --> 00:15:02,030 a mi ćemo da budemo prošireni kognitivno, fizički i čulno, 302 00:15:02,054 --> 00:15:03,462 kako će to da izgleda? 303 00:15:04,046 --> 00:15:06,712 Kako će da izgleda ova zemlja čuda? 304 00:15:08,291 --> 00:15:10,900 Mislim da ćemo da vidimo svet 305 00:15:10,924 --> 00:15:13,992 u kom se udaljavamo od stvari koje se proizvode 306 00:15:15,101 --> 00:15:16,546 do stvari koje se obrađuju. 307 00:15:18,429 --> 00:15:22,374 U kom se udaljavamo od stvari koje se konstruišu 308 00:15:22,398 --> 00:15:24,102 do onih koje se gaje. 309 00:15:26,504 --> 00:15:28,692 Udaljićemo se od izolacije 310 00:15:29,660 --> 00:15:31,270 ka povezanosti. 311 00:15:33,104 --> 00:15:36,015 I udaljićemo se od kopanja 312 00:15:36,039 --> 00:15:37,912 ka sakupljanju. 313 00:15:40,437 --> 00:15:44,204 Mislim i da ćemo se pomeriti od žudnje da nam stvari budu poslušne 314 00:15:45,128 --> 00:15:46,769 ka cenjenju autonomije. 315 00:15:49,450 --> 00:15:51,455 Zahvaljujući našim proširenim mogućnostima, 316 00:15:51,455 --> 00:15:53,786 naš svet će da se drastično izmeni. 317 00:15:54,702 --> 00:15:58,305 Mislim da je dobra analogija neverovatni mikrokosmos koralnog grebena. 318 00:15:58,836 --> 00:16:02,082 Imaćemo svet s više izbora, više povezanosti, 319 00:16:02,106 --> 00:16:04,393 dinamičniji, složeniji 320 00:16:04,417 --> 00:16:06,735 prilagodljiviji i, naravno, 321 00:16:06,759 --> 00:16:07,976 lepši. 322 00:16:08,741 --> 00:16:10,305 Obrisi budućnosti 323 00:16:10,329 --> 00:16:12,619 neće da liče na bilo šta što smo videli do sad. 324 00:16:12,643 --> 00:16:13,802 Zašto? 325 00:16:13,826 --> 00:16:17,581 Jer će sve ovo da oblikuje novo partnerstvo 326 00:16:17,605 --> 00:16:21,275 između tehnologije, prirode i čovečanstva. 327 00:16:22,789 --> 00:16:26,593 Za mene, to je budućnost koju vredi iščekivati. 328 00:16:26,617 --> 00:16:27,888 Mnogo vam hvala. 329 00:16:27,912 --> 00:16:34,912 (Aplauz)