0:00:00.735,0:00:03.024 Koliko vas su kreativci, 0:00:03.048,0:00:06.672 dizajneri, inženjeri,[br]preduzetnici, umetnici 0:00:06.696,0:00:09.083 ili možda prosto imate[br]veoma bujnu maštu? 0:00:09.107,0:00:10.955 Pokažite ruke? (Klicanje) 0:00:10.979,0:00:12.160 To je većina vas. 0:00:13.334,0:00:15.628 Imam novosti za nas kreativce. 0:00:16.714,0:00:19.287 U narednih 20 godina, 0:00:21.471,0:00:24.444 više će se promeniti[br]način na koji obavljamo naše poslove 0:00:25.382,0:00:27.539 nego u poslednjih 2000 godina. 0:00:28.511,0:00:33.139 Zapravo, mislim da smo u praskozorju[br]novog doba u ljudskoj istoriji. 0:00:33.645,0:00:38.406 Sad, imali smo četiri značajne istorijske[br]ere, definisane načinom našeg rada. 0:00:39.404,0:00:42.679 Doba lovaca i sakupljača[br]koje je trajalo nekoliko miliona godina. 0:00:43.163,0:00:46.739 A potom zemljoradničko doba[br]koje je trajalo nekoliko hiljada godina. 0:00:47.195,0:00:50.685 Industrijsko doba[br]je trajalo nekoliko vekova. 0:00:50.709,0:00:54.996 A sadašnje informaciono doba[br]je trajalo svega nekoliko decenija. 0:00:55.020,0:01:00.240 Trenutno smo kao vrsta na samom početku[br]naše nove značajne ere. 0:01:01.296,0:01:03.976 Dobro došli u prošireno doba. 0:01:04.000,0:01:07.693 U ovoj novoj eri, vaše prirodne ljudske[br]sposobnosti će da budu proširene 0:01:07.717,0:01:10.785 uz pomoć računarskih sistema[br]koji vam pomažu da razmišljate, 0:01:10.809,0:01:12.995 robotskih sistema[br]koji vam pomažu da stvarate 0:01:13.019,0:01:14.667 i digitalnih nervnih sistema 0:01:14.691,0:01:18.381 koji vas povezuju sa svetom[br]daleko izvan vaših prirodnih čula. 0:01:19.437,0:01:21.379 Započnimo kognitivnim proširenjem. 0:01:21.403,0:01:23.603 Koliko vas su prošireni kiborzi? 0:01:24.133,0:01:26.783 (Smeh) 0:01:26.807,0:01:29.628 Ja bih zapravo rekao[br]da smo svi mi prošireni. 0:01:30.288,0:01:31.792 Zamislite da ste na zabavi 0:01:31.816,0:01:35.336 i neko vam postavi pitanje[br]na koje ne znate odgovor. 0:01:35.360,0:01:39.120 Ako imate nešto slično ovome,[br]za nekoliko sekundi možete znati odgovor. 0:01:39.869,0:01:42.168 Ali ovo je tek primitivni početak. 0:01:42.863,0:01:46.194 Čak je i Siri tek pasivno oruđe. 0:01:46.660,0:01:50.041 Zapravo, u poslednjih[br]tri i po miliona godina, 0:01:50.065,0:01:53.174 oruđa koja smo imali[br]su bila potpuno pasivna. 0:01:54.203,0:01:57.858 Ona rade tačno ono što im kažemo[br]i ništa više. 0:01:57.882,0:02:00.983 Naše prvo oruđe je jedino seklo[br]onde gde bismo udarili njime. 0:02:01.822,0:02:04.862 Dleto rezbari samo onde[br]gde ga umetnik usmeri. 0:02:05.343,0:02:10.984 Čak i naša najnaprednija oruđa ne rade[br]bilo šta bez naših eksplicitnih naredbi. 0:02:11.008,0:02:14.189 Zapravo, do danas,[br]a to je nešto što me nervira, 0:02:14.213,0:02:15.661 oduvek smo bili ograničeni 0:02:15.685,0:02:19.186 potrebom da ručno[br]uteramo našu volju u naše alate - 0:02:19.210,0:02:21.507 ručno, bukvalno koristeći naše ruke, 0:02:21.531,0:02:22.959 čak i sa kompjuterima. 0:02:24.072,0:02:26.535 No ja sam više nalik Skotiju[br]iz "Zvezdanih staza". 0:02:26.559,0:02:28.409 (Smeh) 0:02:28.433,0:02:30.579 Želim da razgovaram s kompjuterom. 0:02:30.603,0:02:33.573 Želim da kažem: "Kompjuteru,[br]hajde da dizajniramo automobil", 0:02:33.597,0:02:35.136 i kompjuter mi pokaže automobil. 0:02:35.160,0:02:37.768 A ja kažem: "Ne, da izgleda brže[br]i manje nemački", 0:02:37.792,0:02:39.955 i, bum, kompjuter mi pokaže opciju. 0:02:39.979,0:02:41.844 (Smeh) 0:02:42.208,0:02:44.514 Taj razgovor je možda malčice daleko, 0:02:44.538,0:02:47.203 verovatno manje nego što većina nas misli, 0:02:47.227,0:02:48.990 ali trenutno 0:02:49.014,0:02:50.165 radimo na tome. 0:02:50.189,0:02:54.222 Oruđa prave ovaj skok[br]od pasivnih do stvaralačkih. 0:02:54.831,0:02:58.139 Stvaralačka dizajnerska oruđa[br]koriste kompjutere i algoritme, 0:02:58.163,0:03:00.771 da bi tim spojem stvorila geometriju 0:03:00.795,0:03:03.549 i potpuno sama došla do novih dizajna. 0:03:03.996,0:03:06.744 Sve što im je potrebno[br]su vaši ciljevi i vaša ograničenja. 0:03:06.768,0:03:08.176 Daću vam jedan primer. 0:03:08.200,0:03:10.988 U slučaju ove vazdušne šasije drona, 0:03:11.012,0:03:13.638 sve što bi trebalo da uradite[br]je da tražite sledeće: 0:03:13.662,0:03:14.935 da ima četiri propelera, 0:03:14.959,0:03:17.090 želite da bude što lakša 0:03:17.114,0:03:19.384 i želite da ima aerodinamičnu efikasnost. 0:03:19.408,0:03:24.322 Potom kompjuter istražuje[br]celokupan prostor rešenja: 0:03:24.346,0:03:28.273 baš svaku mogućnost[br]koja rešava i ispunjava vaše kriterijume - 0:03:28.297,0:03:29.739 milione njih. 0:03:29.743,0:03:31.758 Potrebni su veliki kompjuteri da to obave. 0:03:31.762,0:03:33.717 Ali su nam uzvratili dizajnima 0:03:33.741,0:03:36.884 koje mi sami ne bismo[br]nikad mogli da zamislimo. 0:03:37.326,0:03:40.238 A kompjuter je sam došao do ovoga - 0:03:40.262,0:03:41.940 niko nikad nije nacrtao bilo šta - 0:03:41.964,0:03:44.050 i započeo je potpuno od nule. 0:03:45.038,0:03:47.425 I, usput, nije slučajno 0:03:47.449,0:03:50.930 da telo drona izgleda[br]baš kao karlica leteće veverice. 0:03:51.287,0:03:53.294 (Smeh) 0:03:54.040,0:03:56.342 To je tako jer su algoritmi[br]dizajnirani da deluju 0:03:56.366,0:03:58.003 na isti način kao evolucija. 0:03:58.715,0:04:01.375 Uzbudljivo je što počinjemo[br]da gledamo ovu tehnologiju 0:04:01.399,0:04:02.558 u stvarnom svetu. 0:04:02.582,0:04:05.034 Nekoliko godina smo radili sa Erbasom 0:04:05.058,0:04:06.967 na konceptu aviona iz budućnosti. 0:04:06.991,0:04:09.061 I dalje je ispred svog vremena. 0:04:09.085,0:04:12.865 Ali baš nedavno smo koristili[br]generativni dizajn veštačke inteligencije 0:04:12.889,0:04:14.696 da bismo smislili ovo. 0:04:15.609,0:04:20.762 Ovo je pregrada odštampana 3D štampačem,[br]koju je dizajnirao kompjuter. 0:04:20.786,0:04:23.610 Jača je od prvobitne,[br]a ipak je upola lakša 0:04:23.634,0:04:26.780 i leteće u erbasu A320 kasnije ove godine. 0:04:27.405,0:04:28.964 Kompjuteri sad mogu da stvaraju; 0:04:28.988,0:04:33.583 mogu da osmisle sopstvena rešenja[br]za naše dobro definisane probleme. 0:04:34.677,0:04:35.987 Ali nisu intuitivni. 0:04:36.011,0:04:39.097 I dalje moraju da počnu od nule,[br]baš svaki put, 0:04:39.121,0:04:41.686 a to je zato što nikad ne nauče. 0:04:42.368,0:04:44.134 Za razliku od Megi. 0:04:44.158,0:04:45.739 (Smeh) 0:04:45.763,0:04:49.060 Megi je zapravo pametnija od naših[br]najnaprednijih dizajnerskih oruđa. 0:04:49.467,0:04:50.907 Šta podrazumevam time? 0:04:50.931,0:04:52.521 Ako njen vlasnik uzme povodac, 0:04:52.545,0:04:54.613 Megi zna s porpiličnim stepenom izvesnosti 0:04:54.637,0:04:56.041 da je vreme za šetnju. 0:04:56.065,0:04:57.250 A kako je naučila? 0:04:57.274,0:05:00.598 Pa, svaki put kad je vlasnik[br]uzeo povodac, išli su u šetnju. 0:05:00.622,0:05:02.500 I Megi je obavila tri stvari: 0:05:02.524,0:05:04.393 morala je da obrati pažnju, 0:05:04.417,0:05:06.499 morala je da se priseti šta se desilo 0:05:06.523,0:05:10.540 i morala je da zadrži i stvori[br]obrazac u svom umu. 0:05:11.409,0:05:13.554 Zanimljivo je da je upravo to ono što 0:05:13.554,0:05:16.131 naučnici za kompjutere pokušavaju[br]da navedu VI da uradi 0:05:16.131,0:05:17.954 u poslednjih oko 60 godina. 0:05:18.683,0:05:20.032 Te 1952. 0:05:20.056,0:05:23.857 su sagradili ovaj kompjuter[br]koji je mogao da igra iks-oks. 0:05:25.081,0:05:26.241 Velika stvar. 0:05:27.029,0:05:30.029 Potom, 45 godina kasnije, 1997. 0:05:30.053,0:05:32.525 Deep Blue je pobedio Kasparova u šahu. 0:05:34.046,0:05:39.014 Godine 2011, Watson je pobedio[br]ova dva čoveka u kvizu, 0:05:39.038,0:05:41.966 što je daleko teže za kompjuter[br]da iga od šaha. 0:05:41.990,0:05:45.802 Zapravo, umesto da radi[br]na osnovu već definisanih recepata, 0:05:45.826,0:05:49.389 Votson je morao da koristi rasuđivanje[br]da bi prevazišao ljudske protivnike. 0:05:50.393,0:05:52.832 A onda, pre nekoliko nedelja, 0:05:52.856,0:05:57.118 AlphaGo iz DeepMind-a je pobedio[br]ljudsko biće koje je najbolje u gou, 0:05:57.142,0:05:59.354 a to je najkomplikovanija igra koju imamo. 0:05:59.378,0:06:02.274 Zapravo, ima više mogućih poteza u gou 0:06:02.298,0:06:04.322 nego što ima atoma u univerzumu. 0:06:06.210,0:06:08.036 Pa, kako bi pobedio, 0:06:08.060,0:06:10.678 AlphaGo je morao da razvije intuiciju. 0:06:11.098,0:06:15.208 I zapravo, u nekim momentima[br]programeri AlphaGo-a nisu razumeli 0:06:15.232,0:06:17.518 zašto je AlphaGo radio to što radi. 0:06:19.451,0:06:21.111 A stvari se odvijaju zaista brzo. 0:06:21.135,0:06:24.362 Mislim, razmotrite -[br]u okviru ljudskog životnog veka, 0:06:24.386,0:06:26.619 kompjuteri su prešli od dečje igre 0:06:27.920,0:06:30.968 do onoga što se smatra vrhuncem[br]strateškog mišljenja. 0:06:31.999,0:06:34.416 U suštini se dešava to 0:06:34.440,0:06:37.750 da kompjuteri prestaju da budu poput Spoka 0:06:37.774,0:06:39.723 i postaju mnogo više nalik Kirku. 0:06:39.747,0:06:43.365 (Smeh) 0:06:43.389,0:06:46.813 Je li tako? Od čiste logike do intuicije. 0:06:48.184,0:06:49.927 Da li biste prešli ovaj most? 0:06:50.609,0:06:52.932 Većina vas govori: "Uh, nema šanse!" 0:06:52.956,0:06:54.264 (Smeh) 0:06:54.288,0:06:56.945 A stigli ste do te odluke[br]u deliću sekunde. 0:06:56.969,0:06:59.397 Prosto ste nekako znali[br]da taj most nije bezbedan. 0:06:59.421,0:07:01.410 A upravo je to tip intuicije 0:07:01.434,0:07:05.002 koju naši sistemi dubinskog učenja[br]trenutno počinju da razvijaju. 0:07:05.722,0:07:07.429 Veoma brzo ćete bukvalno moći 0:07:07.453,0:07:09.659 da pokažete kompjuteru[br]nešto što ste napravili, 0:07:09.683,0:07:10.836 što ste dizajnirali 0:07:10.860,0:07:12.349 i on će to da pogleda i kaže: 0:07:12.373,0:07:15.196 "Izvini, druže, to neće proći.[br]Moraš opet da pokušaš." 0:07:15.854,0:07:19.134 Ili ćete moći da ga pitate da li će se[br]ljudima sviđati vaša nova pesma 0:07:19.773,0:07:21.836 ili vaš novi ukus sladoleda. 0:07:23.549,0:07:26.022 Ili, što je još važnije, 0:07:26.022,0:07:28.596 moći ćete raditi sa kompjuterom[br]da biste rešili problem 0:07:28.596,0:07:30.177 s kojim se pre nismo suočili. 0:07:30.201,0:07:31.602 Na primer, klimatske promene. 0:07:31.626,0:07:33.646 Sami ne obavljamo posao naročito dobro, 0:07:33.670,0:07:35.915 svakako da bi nam koristila[br]sva moguća pomoć. 0:07:35.939,0:07:37.391 O tome govorim, 0:07:37.391,0:07:40.006 o tehnologiji koja naglašava[br]naše kognitivne sposobnosti 0:07:40.006,0:07:43.552 kako bismo mogli da zamislimo[br]i dizajniramo stvari koje nisu dostupne 0:07:43.576,0:07:46.135 nama, prostim starim neproširenim ljudima. 0:07:47.964,0:07:50.925 Pa, o čemu se radi kod stvaranja[br]svih tih blesavih novih stvari 0:07:50.949,0:07:53.390 koje ćemo izumeti i dizajnirati? 0:07:53.952,0:07:58.045 Mislim da se u eri ljudskog proširivanja[br]podjednako radi o fizičkom svetu 0:07:58.069,0:08:01.134 kao i o virtuelnoj, intelektualnoj sferi. 0:08:01.833,0:08:03.754 Kako će nas tehnologija proširiti? 0:08:04.261,0:08:06.734 U fizičkom svetu,[br]biće to robotski sistemi. 0:08:07.620,0:08:09.356 U redu, svakako da postoji strah 0:08:09.380,0:08:11.868 da će roboti da oduzmu poslove ljudima, 0:08:11.892,0:08:13.722 to je tačno za određene sektore. 0:08:14.174,0:08:17.052 No, mene više zanima zamisao 0:08:17.076,0:08:22.086 da će ljudi i roboti radeći zajedno[br]proširiti jedni druge, 0:08:22.110,0:08:24.082 i počeće da naseljavaju nove prostore. 0:08:24.082,0:08:26.914 Ovo je primenjena istraživačka[br]laboratorija u San Francisku, 0:08:26.914,0:08:29.920 gde je napredna robotika[br]jedna od oblasti na koje se fokusiramo, 0:08:29.920,0:08:32.255 naročito saradnja između ljudi i robota. 0:08:33.034,0:08:35.793 A ovo je Bišop, jedan od naših robota. 0:08:35.817,0:08:37.606 Kao eksperiment, podesili smo ga 0:08:37.630,0:08:41.090 da pomaže osobi koja na građevini[br]obavlja repetitivne poslove - 0:08:41.984,0:08:46.178 poslove poput bušenja rupa u gips-kartonu[br]za utičnice ili prekidače za svetla. 0:08:46.202,0:08:48.668 (Smeh) 0:08:49.877,0:08:52.972 Dakle, Bišopov ljudski partner[br]može da mu objasni na engleskom 0:08:52.972,0:08:54.417 i jednostavnom gestikulacijom, 0:08:54.417,0:08:55.788 poput razgovaranja sa psom, 0:08:55.812,0:08:57.955 a potom Bišop, izvodi ta uputstva 0:08:57.979,0:08:59.871 savršenom preciznošću. 0:08:59.895,0:09:02.884 Koristimo ljude za ono u čemu su dobri: 0:09:02.908,0:09:05.241 svesnost, percepcija i donošenje odluka. 0:09:05.265,0:09:07.505 A koristimo robota za ono u čemu je dobar: 0:09:07.529,0:09:09.277 preciznost i ponavljanje. 0:09:10.252,0:09:12.619 Još jedan sjajan projekat[br]na kom je radio Bišop. 0:09:12.643,0:09:15.718 Cilj ovog projekta, koga smo nazvali HIVE, 0:09:15.742,0:09:19.593 bio je da testira iskustvo[br]ljudi, kompjutera i robota 0:09:19.617,0:09:22.957 gde svi rade zajedno kako bi rešili[br]veoma složene dizajnerske probleme. 0:09:23.733,0:09:25.324 Ljudi su služili kao radna snaga. 0:09:25.324,0:09:28.741 Kružili su po gradilištu,[br]rukovali bambusom - 0:09:28.765,0:09:31.521 koji je, usput, stoga[br]što je neizomorfan materijal, 0:09:31.545,0:09:33.419 veoma težak robotima za rukovanje. 0:09:33.443,0:09:35.465 No, potom su roboti namotavali ovo vlakno, 0:09:35.489,0:09:37.940 a to je skoro nemoguće za ljude da urade. 0:09:37.964,0:09:41.585 A potom smo imali VI[br]koja je sve kontrolisala. 0:09:41.609,0:09:44.899 Govorila je ljudima šta da rade,[br]govorila je robotima šta da rade 0:09:44.923,0:09:47.838 i nadgledala hiljade[br]pojedinačnih komponenti. 0:09:47.862,0:09:49.042 Zanimljivo je 0:09:49.066,0:09:52.207 da je izgradnja ovog paviljona[br]prosto bila nemoguća 0:09:52.231,0:09:56.755 bez ljudi, robota i VI[br]koji proširuju jedni druge. 0:09:57.890,0:10:01.210 Podeliću sa vama još jedan projekat.[br]Ovaj je malčice blesav. 0:10:01.234,0:10:05.702 Radimo sa umetnicima iz Amsterdama,[br]Jorisom Larmanom i njegovom ekipom iz MX3D 0:10:05.726,0:10:08.604 da bismo generativno dizajnirali[br]i robotski odštampali 0:10:08.628,0:10:11.623 prvi u svetu autonomno proizveden most. 0:10:12.315,0:10:16.000 Dakle, Joris i VI baš dok govorimo[br]dizajniraju taj objekat 0:10:16.024,0:10:17.196 u Amsterdamu. 0:10:17.220,0:10:19.541 A kad završe, pritisnućemo "Kreni" 0:10:19.565,0:10:22.876 i roboti će početi 3D tehnologijom[br]da štampaju nerđajući čelik 0:10:22.900,0:10:26.183 i nastaviće da štampaju[br]bez ljudskog uplitanja, 0:10:26.207,0:10:27.765 sve dok završe most. 0:10:29.099,0:10:32.027 Pa, kako će roboti[br]da prošire našu sposobnost 0:10:32.051,0:10:34.175 zamišljanja i dizajniranja novih stvari, 0:10:34.175,0:10:37.120 robotski sistemi će da nam pomognu[br]da gradimo i pravimo stvari 0:10:37.144,0:10:39.228 koje nismo mogli da pravimo pre. 0:10:40.347,0:10:44.507 No, šta je s našom sposobnošću[br]da osetimo i kontrolišemo ove stvari? 0:10:44.531,0:10:48.562 Kako bi bilo da imamo nervni sistem[br]kod stvari koje pravimo? 0:10:48.586,0:10:51.098 Naš nervni sistem, ljudski nervni sistem, 0:10:51.122,0:10:53.433 saopštava nam o svemu[br]što se dešava oko nas. 0:10:54.186,0:10:57.870 Međutim, nervni sitem stvari[br]koje pravimo je u najboljem slučaju prost. 0:10:57.894,0:11:01.457 Na primer, automobil ne saopštava[br]gradskom odseku za javne delatnosti 0:11:01.481,0:11:04.611 da je upravo udario u rupu[br]na uglu ulice Brodvej i Morison. 0:11:04.635,0:11:06.667 Građevina ne sopštava njenim dizajnerima 0:11:06.691,0:11:09.375 da li ljudi unutar nje vole da budu tu, 0:11:09.399,0:11:12.409 a proizvođač lutaka ne zna 0:11:12.433,0:11:14.440 da li se zaista igraju[br]njihovim igračkama - 0:11:14.464,0:11:17.003 kako, gde i da li su ili nisu zabavne. 0:11:17.620,0:11:21.434 Vidite, siguran sam da su dizajneri[br]zamislili ovakav stil života za barbiku 0:11:21.458,0:11:22.682 kada su je dizajnirali. 0:11:22.706,0:11:24.153 (Smeh) 0:11:24.177,0:11:27.083 Ali šta ako se ispostavi[br]da je barbi zapravo veoma usamljena? 0:11:27.107,0:11:30.254 (Smeh) 0:11:31.266,0:11:32.554 Kad bi dizajneri znali 0:11:32.558,0:11:34.329 šta se zaista dešava u stvarnom svetu 0:11:34.329,0:11:36.896 njihovim dizajnima - putevima,[br]građevinama, barbikama - 0:11:36.896,0:11:38.384 mogli bi da koriste to znanje 0:11:38.384,0:11:40.778 da stvore bolja iskustva za korisnike. 0:11:40.778,0:11:43.249 Nedostaje nervni sistem 0:11:43.273,0:11:46.982 koji bi nas povezao sa svim stvarima[br]koje dizajniramo, pravimo i koristimo. 0:11:47.915,0:11:51.470 Šta kad biste svi vi imali[br]dotok takvog oblika informacija 0:11:51.494,0:11:53.677 od stvari koje stvarate u stvarnom svetu? 0:11:55.432,0:11:56.883 Uz sve što pravimo, 0:11:56.907,0:11:59.342 trošimo ogromne količine[br]novca i energije - 0:11:59.366,0:12:01.742 zapravo, prošle godine,[br]skoro dva biliona dolara - 0:12:01.766,0:12:04.620 ubeđujući ljude da kupe[br]stvari koje pravimo. 0:12:04.644,0:12:08.032 Ali kad biste imali ovakvu vezu[br]sa stvarima koje dizajnirate i stvarate 0:12:08.056,0:12:09.783 kada se one nađu u stvarnom svetu, 0:12:09.807,0:12:13.395 nakon što ih prodaju[br]ili lansiraju ili šta god, 0:12:13.395,0:12:15.095 zapravo bismo mogli to da promenimo 0:12:15.095,0:12:18.136 i da se pomerimo[br]od ubeđivanja ljudi da vole naše stvari 0:12:18.160,0:12:21.594 do prosto pravljenja stvari[br]koje su ljudima prvenstveno potrebne. 0:12:21.618,0:12:24.405 Dobre vesti su da radimo[br]na digitalnom nervnom sistemu 0:12:24.429,0:12:27.230 koji bi nas povezao[br]sa stvarima koje dizajniramo. 0:12:28.365,0:12:29.992 Radimo na jednom projektu 0:12:30.016,0:12:33.728 sa nekoliko momaka iz Los Anđelesa,[br]koji sebe nazivaju Bandito Bradersima, 0:12:33.752,0:12:35.159 i njihovom ekipom. 0:12:35.183,0:12:38.616 A jedna od stvari koju ovi momci rade[br]je izgradnja ludih automobila 0:12:38.640,0:12:41.513 koji rade potpuno lude stvari. 0:12:42.905,0:12:44.355 Ovi momci su sumanuti - 0:12:44.379,0:12:45.415 (Smeh) 0:12:45.439,0:12:46.842 na najbolji način. 0:12:48.993,0:12:50.756 A mi s njima radimo 0:12:50.780,0:12:53.220 tako što uzmemo tradicionalnu[br]šasiju za trkačka auta 0:12:53.244,0:12:54.829 i ugrađujemo nervni sistem u nju. 0:12:54.853,0:12:57.911 Dakle, opskrbili smo je[br]desetinama senzora, 0:12:57.935,0:13:00.570 stavili smo iza volana[br]vozača svetske klase, 0:13:00.594,0:13:03.951 odvezli auto u pustinju[br]vozali ga do besvesti sedam dana. 0:13:03.975,0:13:06.466 A nervni sistem automobila je zabeležio 0:13:06.490,0:13:07.972 sve što se dešavalo automobilu. 0:13:07.996,0:13:10.617 Zabeležili smo četiri milijarde[br]jedinica podataka; 0:13:10.641,0:13:12.951 sve sile kojima je bilo izloženo. 0:13:12.975,0:13:14.634 A potom smo uradili nešto ludo. 0:13:15.268,0:13:16.768 Uzeli smo sve podatke 0:13:16.792,0:13:20.528 i priključili ih na VI genrativnog dizajna[br]koju nazivamo "Dreamcatcher". 0:13:21.270,0:13:25.234 Pa, šta dobijate kada dizajnerskom oruđu[br]date nervni sistem 0:13:25.258,0:13:28.140 i zatražite od njega da vam sagradi[br]najbolju šasiju za auto? 0:13:28.723,0:13:30.696 Dobijate ovo. 0:13:32.293,0:13:36.006 Ovo je nešto što ljudi[br]nikad ne bi mogli da dizajniraju. 0:13:36.707,0:13:38.595 Samo što ljudi ovo jesu dizajnirali, 0:13:38.619,0:13:42.912 ali to su bili ljudi prošireni[br]VI generativnog dizajna, 0:13:42.912,0:13:44.223 digitalnim nervnim sistemom 0:13:44.223,0:13:47.212 i robotima koji zapravo mogu[br]da proizvedu nešto ovakvo. 0:13:47.680,0:13:51.275 Pa, ako je ovo budućnost, prošireno doba, 0:13:51.299,0:13:55.560 a mi ćemo da budemo prošireni[br]kognitivno, fizički i čulno, 0:13:55.584,0:13:56.992 kako će to da izgleda? 0:13:57.576,0:14:00.897 Kako će da izgleda ova zemlja čuda? 0:14:00.921,0:14:02.630 Mislim da ćemo da vidimo svet 0:14:02.654,0:14:05.722 u kom se udaljavamo[br]od stvari koje se proizvode 0:14:05.746,0:14:07.191 do stvari koje se obrađuju. 0:14:08.159,0:14:11.612 U kom se udaljavamo od stvari[br]koje se konstruišu 0:14:11.636,0:14:13.340 do onih koje se gaje. 0:14:14.134,0:14:16.322 Udaljićemo se od izolacije 0:14:16.346,0:14:17.956 ka povezanosti. 0:14:18.634,0:14:21.045 I udaljićemo se od kopanja 0:14:21.069,0:14:22.942 ka sakupljanju. 0:14:23.967,0:14:27.734 Mislim i da ćemo se pomeriti[br]od žudnje da nam stvari budu poslušne 0:14:27.758,0:14:29.399 ka cenjenju autonomije. 0:14:30.510,0:14:32.525 Zahvaljujući našim[br]proširenim mogućnostima, 0:14:32.525,0:14:34.816 naš svet će da se drastično izmeni. 0:14:35.576,0:14:38.822 Imaćemo svet s više izbora,[br]više povezanosti, 0:14:38.846,0:14:41.133 dinamičniji, složeniji 0:14:41.157,0:14:43.475 prilagodljiviji i, naravno, 0:14:43.499,0:14:44.716 lepši. 0:14:45.231,0:14:46.795 Obrisi budućnosti 0:14:46.819,0:14:49.109 neće da liče na bilo šta[br]što smo videli do sad. 0:14:49.133,0:14:50.292 Zašto? 0:14:50.316,0:14:54.071 Jer će sve ovo da oblikuje[br]novo partnerstvo 0:14:54.095,0:14:57.765 između tehnologije, prirode i čovečanstva. 0:14:59.279,0:15:03.083 Za mene, to je budućnost[br]koju vredi iščekivati. 0:15:03.107,0:15:04.378 Mnogo vam hvala. 0:15:04.402,0:15:10.071 (Aplauz)