0:00:10.847,0:00:13.799 U redu, Portland, opa.[br]Mnogo vam hvala što ste me pozvali. 0:00:14.038,0:00:15.498 Volim da posećujem vaš grad. 0:00:15.522,0:00:18.625 Mislim, gde na svetu[br]bih imao ovakav doručak. 0:00:18.649,0:00:20.315 (Smeh) 0:00:20.339,0:00:23.632 I ovo je očigledno[br]mesto sa mnogo kreativaca. 0:00:23.815,0:00:25.111 (Smeh) 0:00:25.135,0:00:27.424 Koliko vas su kreativci, 0:00:27.448,0:00:31.072 dizajneri, inženjeri,[br]preduzetnici, umetnici 0:00:31.096,0:00:33.483 ili možda prosto imate[br]veoma bujnu maštu? 0:00:33.507,0:00:35.355 Pokažite ruke? (Klicanje) 0:00:35.379,0:00:36.560 To je većina vas. 0:00:37.734,0:00:40.028 Imam novosti za nas kreativce. 0:00:41.114,0:00:43.687 U narednih 20 godina, 0:00:45.871,0:00:48.844 više će se promeniti[br]način na koji obavljamo naše poslove 0:00:49.782,0:00:51.939 nego u poslednjih 2000 godina. 0:00:52.768,0:00:57.396 Zapravo, mislim da smo u praskozorju[br]novog doba u ljudskoj istoriji. 0:00:58.045,0:01:02.624 Sad, imali smo četiri značajne istorijske[br]ere, definisane načinom našeg rada. 0:01:03.804,0:01:07.079 Doba lovaca i sakupljača[br]koje je trajalo nekoliko miliona godina. 0:01:07.563,0:01:11.139 A potom zemljoradničko doba[br]koje je trajalo nekoliko hiljada godina. 0:01:11.405,0:01:14.895 Industrijsko doba[br]je trajalo nekoliko vekova. 0:01:14.919,0:01:18.728 A sadašnje informaciono doba[br]je trajalo svega nekoliko decenija. 0:01:19.230,0:01:24.450 Trenutno smo kao vrsta na samom početku[br]naše nove značajne ere. 0:01:25.506,0:01:28.186 Dobro došli u prošireno doba. 0:01:28.210,0:01:31.903 U ovoj novoj eri, vaše prirodne ljudske[br]sposobnosti će da budu proširene 0:01:31.927,0:01:34.995 uz pomoć računarskih sistema[br]koji vam pomažu da razmišljate, 0:01:35.119,0:01:37.305 robotskih sistema[br]koji vam pomažu da stvarate 0:01:37.329,0:01:38.977 i digitalnih nervnih sistema 0:01:39.001,0:01:42.691 koji vas povezuju sa svetom[br]daleko izvan vaših prirodnih čula. 0:01:44.947,0:01:46.889 Započnimo kognitivnim proširenjem. 0:01:46.913,0:01:49.113 Koliko vas su prošireni kiborzi? 0:01:49.270,0:01:51.545 (Smeh) 0:01:51.569,0:01:53.084 Ima tu tri ili četiri kiborga, 0:01:53.108,0:01:54.791 to je prosto tako u Portlandu. 0:01:54.815,0:01:58.025 (Smeh) 0:01:58.049,0:01:59.231 Da, ostanite čudaci. 0:01:59.255,0:02:01.543 (Smeh) 0:02:01.567,0:02:04.388 Ja bih zapravo rekao[br]da smo svi mi prošireni. 0:02:05.048,0:02:06.552 Zamislite da ste na zabavi 0:02:06.576,0:02:10.096 i neko vam postavi pitanje[br]na koje ne znate odgovor. 0:02:10.120,0:02:13.880 Ako imate nešto slično ovome,[br]za nekoliko sekundi možete znati odgovor. 0:02:14.629,0:02:16.928 Ali ovo je tek primitivni početak. 0:02:17.623,0:02:20.954 Čak je i Siri tek pasivno oruđe. 0:02:21.420,0:02:24.801 Zapravo, u poslednjih[br]tri i po miliona godina, 0:02:24.825,0:02:28.348 oruđa koja smo imali[br]su bila potpuno pasivna. 0:02:29.563,0:02:33.218 Ona rade tačno ono što im kažemo[br]i ništa više. 0:02:33.242,0:02:36.343 Naše prvo oruđe je jedino seklo[br]onde gde bismo udarili njime. 0:02:37.382,0:02:40.422 Dleto rezbari samo onde[br]gde ga umetnik usmeri. 0:02:40.818,0:02:46.544 Čak i naša najnaprednija oruđa ne rade[br]bilo šta bez naših eksplicitnih naredbi. 0:02:47.598,0:02:50.779 Zapravo, do danas,[br]a to je nešto što me nervira, 0:02:50.803,0:02:52.251 oduvek smo bili ograničeni 0:02:52.275,0:02:55.776 potrebom da ručno[br]uteramo našu volju u naše alate - 0:02:55.800,0:02:58.097 ručno, bukvalno koristeći naše ruke, 0:02:58.121,0:02:59.549 čak i sa kompjuterima. 0:03:00.662,0:03:03.125 No ja sam više nalik Skotiju[br]iz "Zvezdanih staza". 0:03:03.149,0:03:04.999 (Smeh) 0:03:05.023,0:03:07.169 Želim da razgovaram s kompjuterom. 0:03:07.193,0:03:10.163 Želim da kažem: "Kompjuteru,[br]hajde da dizajniramo automobil", 0:03:10.187,0:03:11.726 i kompjuter mi pokaže automobil. 0:03:11.750,0:03:14.358 A ja kažem: "Ne, da izgleda brže[br]i manje nemački", 0:03:14.382,0:03:16.545 i, bum, kompjuter mi pokaže opciju. 0:03:16.569,0:03:18.434 (Smeh) 0:03:18.798,0:03:21.104 Taj razgovor je možda malčice daleko, 0:03:21.128,0:03:23.793 verovatno manje nego što većina nas misli, 0:03:23.817,0:03:25.580 ali trenutno 0:03:25.604,0:03:26.755 radimo na tome. 0:03:26.779,0:03:30.812 Oruđa prave ovaj skok[br]od pasivnih do stvaralačkih. 0:03:31.421,0:03:36.069 Stvaralačka dizajnerska oruđa[br]koriste kompjutere i algoritme, 0:03:36.093,0:03:38.901 da bi tim spojem stvorila geometriju 0:03:38.925,0:03:41.679 i potpuno sama došla do novih dizajna. 0:03:42.126,0:03:44.874 Sve što im je potrebno[br]su vaši ciljevi i vaša ograničenja. 0:03:44.898,0:03:46.306 Daću vam jedan primer. 0:03:46.330,0:03:49.118 U slučaju ove vazdušne šasije drona, 0:03:49.142,0:03:51.768 sve što bi trebalo da uradite[br]je da tražite sledeće: 0:03:51.792,0:03:53.065 da ima četiri propelera, 0:03:53.089,0:03:55.220 želite da bude što lakša 0:03:55.244,0:03:57.514 i želite da ima aerodinamičnu efikasnost. 0:03:57.538,0:04:02.452 Potom kompjuter istražuje[br]celokupan prostor rešenja: 0:04:02.476,0:04:06.403 baš svaku mogućnost[br]koja rešava i ispunjava vaše kriterijume - 0:04:06.427,0:04:07.853 milione njih. 0:04:07.853,0:04:09.888 Potrebni su veliki kompjuteri da to obave. 0:04:09.892,0:04:11.847 Ali su nam uzvratili dizajnima 0:04:11.871,0:04:15.014 koje mi sami ne bismo[br]nikad mogli da zamislimo. 0:04:15.456,0:04:18.368 A kompjuter je sam došao do ovoga - 0:04:18.392,0:04:20.070 niko nikad nije nacrtao bilo šta - 0:04:20.094,0:04:22.180 i započeo je potpuno od nule. 0:04:23.168,0:04:25.555 I, usput, nije slučajno 0:04:25.579,0:04:29.060 da telo drona izgleda[br]baš kao karlica leteće veverice. 0:04:29.231,0:04:32.146 (Smeh) 0:04:32.170,0:04:34.472 To je tako jer su algoritmi[br]dizajnirani da deluju 0:04:34.496,0:04:36.133 na isti način kao evolucija. 0:04:37.045,0:04:39.705 Uzbudljivo je što počinjemo[br]da gledamo ovu tehnologiju 0:04:39.729,0:04:40.888 u stvarnom svetu. 0:04:40.912,0:04:43.364 Nekoliko godina smo radili sa Erbasom 0:04:43.388,0:04:45.297 na konceptu aviona iz budućnosti. 0:04:45.321,0:04:47.391 I dalje je ispred svog vremena. 0:04:47.415,0:04:51.195 Ali baš nedavno smo koristili[br]generativni dizajn veštačke inteligencije 0:04:51.219,0:04:53.026 da bismo smislili ovo. 0:04:53.939,0:04:59.092 Ovo je pregrada odštampana 3D štampačem,[br]koju je dizajnirao kompjuter. 0:04:59.116,0:05:01.940 Jača je od prvobitne,[br]a ipak je upola lakša 0:05:01.964,0:05:05.110 i leteće u erbasu A320 kasnije ove godine. 0:05:06.835,0:05:09.024 Kompjuteri sad mogu da stvaraju; 0:05:09.048,0:05:13.643 mogu da osmisle sopstvena rešenja[br]za naše dobro definisane probleme. 0:05:14.737,0:05:16.047 Ali nisu intuitivni. 0:05:16.071,0:05:19.157 I dalje moraju da počnu od nule,[br]baš svaki put, 0:05:19.181,0:05:21.871 a to je zato što nikad ne nauče. 0:05:22.768,0:05:24.534 Za razliku od Megi. 0:05:24.558,0:05:26.139 (Smeh) 0:05:26.163,0:05:29.460 Megi je zapravo pametnija od naših[br]najnaprednijih dizajnerskih oruđa. 0:05:29.867,0:05:31.367 Šta podrazumevam time? 0:05:31.391,0:05:32.981 Ako njen vlasnik uzme povodac, 0:05:33.005,0:05:35.073 Megi zna s porpiličnim stepenom izvesnosti 0:05:35.097,0:05:36.501 da je vreme za šetnju. 0:05:36.525,0:05:37.710 A kako je naučila? 0:05:37.734,0:05:41.058 Pa, svaki put kad je vlasnik[br]uzeo povodac, išli su u šetnju. 0:05:41.082,0:05:42.960 I Megi je obavila tri stvari: 0:05:42.984,0:05:44.853 morala je da obrati pažnju, 0:05:44.877,0:05:46.959 morala je da se priseti šta se desilo 0:05:46.983,0:05:51.000 i morala je da zadrži i stvori[br]obrazac u svom umu. 0:05:51.889,0:05:53.984 Zanimljivo je da je upravo to ono što 0:05:54.008,0:05:56.581 naučnici za kompjutere pokušavaju[br]da navedu VI da uradi 0:05:56.581,0:05:58.414 u poslednjih oko 60 godina. 0:05:59.783,0:06:01.132 Te 1952. 0:06:01.156,0:06:04.957 su sagradili ovaj kompjuter[br]koji je mogao da igra iks-oks. 0:06:06.181,0:06:07.341 Velika stvar. 0:06:08.129,0:06:11.129 Potom, 45 godina kasnije, 1997. 0:06:11.153,0:06:13.625 Deep Blue je pobedio Kasparova u šahu. 0:06:15.146,0:06:20.114 Godine 2011, Watson je pobedio[br]ova dva čoveka u kvizu, 0:06:20.138,0:06:23.066 što je daleko teže za kompjuter[br]da iga od šaha. 0:06:23.090,0:06:26.902 Zapravo, umesto da radi[br]na osnovu već definisanih recepata, 0:06:26.926,0:06:30.479 Votson je morao da koristi rasuđivanje[br]da bi prevazišao ljudske protivnike. 0:06:31.493,0:06:33.932 A onda, pre nekoliko nedelja, 0:06:33.956,0:06:38.218 AlphaGo iz DeepMind-a je pobedio[br]ljudsko biće koje je najbolje u gou, 0:06:38.242,0:06:40.454 a to je najkomplikovanija igra koju imamo. 0:06:40.478,0:06:43.974 Zapravo, ima više mogućih poteza u gou 0:06:43.998,0:06:46.022 nego što ima atoma u univerzumu. 0:06:47.910,0:06:49.736 Pa, kako bi pobedio, 0:06:49.760,0:06:52.774 AlphaGo je morao da razvije intuiciju. 0:06:52.798,0:06:56.908 I zapravo, u nekim momentima[br]programeri AlphaGo-a nisu razumeli 0:06:56.932,0:06:59.218 zašto je AlphaGo radio to što radi. 0:07:01.151,0:07:02.811 A stvari se odvijaju zaista brzo. 0:07:02.835,0:07:06.062 Mislim, razmotrite -[br]u okviru ljudskog životnog veka, 0:07:06.086,0:07:08.319 kompjuteri su prešli od dečje igre 0:07:09.620,0:07:12.668 do onoga što se smatra vrhuncem[br]strateškog mišljenja. 0:07:13.699,0:07:16.116 U suštini se dešava to 0:07:16.140,0:07:19.450 da kompjuteri prestaju da budu poput Spoka 0:07:20.474,0:07:22.423 i postaju mnogo više nalik Kirku. 0:07:22.447,0:07:26.065 (Smeh) 0:07:26.089,0:07:29.513 Je li tako? Od čiste logike do intuicije. 0:07:31.584,0:07:33.327 Da li biste prešli ovaj most? 0:07:34.009,0:07:36.332 Većina vas govori: "Uh, nema šanse!" 0:07:36.356,0:07:37.664 (Smeh) 0:07:37.688,0:07:40.345 A stigli ste do te odluke[br]u deliću sekunde. 0:07:40.369,0:07:42.797 Prosto ste nekako znali[br]da taj most nije bezbedan. 0:07:42.821,0:07:44.810 A upravo je to tip intuicije 0:07:44.834,0:07:48.402 koju naši sistemi dubinskog učenja[br]trenutno počinju da razvijaju. 0:07:49.122,0:07:50.593 Veoma brzo ćete bukvalno moći 0:07:50.593,0:07:53.782 da pokažete kompjuteru nešto[br]što ste napravili, što ste dizajnirali 0:07:53.806,0:07:55.439 i on će to da pogleda i kaže: 0:07:55.463,0:07:58.286 "Izvini, druže, to neće proći.[br]Moraš opet da pokušaš." 0:07:59.254,0:08:02.594 Ili ćete moći da ga pitate da li će se[br]ljudima sviđati vaša nova pesma 0:08:03.173,0:08:05.236 ili vaš novi ukus sladoleda. 0:08:06.949,0:08:09.432 Ili, što je još važnije, 0:08:09.432,0:08:12.006 moći ćete raditi sa kompjuterom[br]da biste rešili problem 0:08:12.006,0:08:13.577 s kojim se pre nismo suočili. 0:08:13.601,0:08:15.002 Na primer, klimatske promene. 0:08:15.026,0:08:17.046 Sami ne obavljamo posao naročito dobro, 0:08:17.070,0:08:19.315 svakako da bi nam koristila[br]sva moguća pomoć. 0:08:19.339,0:08:20.791 O tome govorim, 0:08:20.791,0:08:23.406 o tehnologiji koja naglašava[br]naše kognitivne sposobnosti 0:08:23.406,0:08:26.952 kako bismo mogli da zamislimo[br]i dizajniramo stvari koje nisu dostupne 0:08:26.976,0:08:29.535 nama, prostim starim neproširenim ljudima. 0:08:31.384,0:08:34.375 Pa, o čemu se radi kod stvaranja[br]svih tih blesavih novih stvari 0:08:34.375,0:08:36.790 koje ćemo izumeti i dizajnirati? 0:08:37.352,0:08:41.445 Mislim da se u eri ljudskog proširivanja[br]podjednako radi o fizičkom svetu 0:08:41.469,0:08:44.534 kao i o virtuelnoj, intelektualnoj sferi. 0:08:45.233,0:08:47.154 Kako će nas tehnologija proširiti? 0:08:47.565,0:08:50.038 U fizičkom svetu,[br]biće to robotski sistemi. 0:08:51.620,0:08:53.356 U redu, svakako da postoji strah 0:08:53.380,0:08:55.868 da će roboti da oduzmu poslove ljudima, 0:08:55.892,0:08:57.722 to je tačno za određene sektore. 0:08:58.174,0:09:01.052 No, mene više zanima zamisao 0:09:01.076,0:09:06.086 da će ljudi i roboti radeći zajedno[br]proširiti jedni druge, 0:09:06.110,0:09:08.022 i počeće da naseljavaju nove prostore. 0:09:08.022,0:09:10.854 Ovo je primenjena istraživačka[br]laboratorija u San Francisku, 0:09:10.854,0:09:13.920 gde je napredna robotika[br]jedna od oblasti na koje se fokusiramo, 0:09:13.920,0:09:16.255 naročito saradnja između ljudi i robota. 0:09:17.034,0:09:19.793 A ovo je Bišop, jedan od naših robota. 0:09:19.817,0:09:21.606 Kao eksperiment, podesili smo ga 0:09:21.630,0:09:25.090 da pomaže osobi koja na građevini[br]obavlja repetitivne poslove - 0:09:25.984,0:09:30.178 poslove poput bušenja rupa u gips-kartonu[br]za utičnice ili prekidače za svetla. 0:09:30.202,0:09:32.668 (Smeh) 0:09:33.877,0:09:36.952 Dakle, Bišopov ljudski partner[br]može da mu objasni na engleskom 0:09:36.952,0:09:38.407 i jednostavnom gestikulacijom, 0:09:38.407,0:09:39.788 poput razgovaranja sa psom, 0:09:39.812,0:09:41.955 a potom Bišop, izvodi ta uputstva 0:09:41.979,0:09:43.871 savršenom preciznošću. 0:09:43.895,0:09:46.884 Koristimo ljude za ono u čemu su dobri: 0:09:46.908,0:09:49.241 svesnost, percepcija i donošenje odluka. 0:09:49.265,0:09:51.505 A koristimo robota za ono u čemu je dobar: 0:09:51.529,0:09:53.277 preciznost i ponavljanje. 0:09:54.252,0:09:56.619 Još jedan sjajan projekat[br]na kom je radio Bišop. 0:09:56.643,0:09:59.718 Cilj ovog projekta, koga smo nazvali HIVE, 0:09:59.742,0:10:03.593 bio je da testira iskustvo[br]ljudi, kompjutera i robota 0:10:03.617,0:10:06.977 gde svi rade zajedno kako bi rešili[br]veoma složene dizajnerske probleme. 0:10:07.703,0:10:09.294 Ljudi su služili kao radna snaga. 0:10:09.294,0:10:12.741 Kružili su po gradilištu,[br]rukovali bambusom - 0:10:12.765,0:10:15.521 koji je, usput, stoga[br]što je neizomorfan materijal, 0:10:15.545,0:10:17.419 veoma težak robotima za rukovanje. 0:10:17.543,0:10:19.865 No, potom su roboti namotavali ovo vlakno, 0:10:19.889,0:10:22.340 a to je skoro nemoguće za ljude da urade. 0:10:22.364,0:10:25.985 A potom smo imali VI[br]koja je sve kontrolisala. 0:10:26.109,0:10:29.399 Govorila je ljudima šta da rade,[br]govorila je robotima šta da rade 0:10:29.423,0:10:32.338 i nadgledala hiljade[br]pojedinačnih komponenti. 0:10:32.362,0:10:33.542 Zanimljivo je 0:10:33.566,0:10:36.707 da je izgradnja ovog paviljona[br]prosto bila nemoguća 0:10:36.731,0:10:41.255 bez ljudi, robota i VI[br]koji proširuju jedni druge. 0:10:42.390,0:10:45.710 Podeliću sa vama još jedan projekat.[br]Ovaj je malčice blesav. 0:10:47.734,0:10:52.202 Radimo sa umetnicima iz Amsterdama,[br]Jorisom Larmanom i njegovom ekipom iz MX3D 0:10:53.526,0:10:56.404 da bismo generativno dizajnirali[br]i robotski odštampali 0:10:56.428,0:10:59.423 prvi u svetu autonomno proizveden most. 0:11:01.015,0:11:04.700 Dakle, Joris i VI baš dok govorimo[br]dizajniraju taj objekat 0:11:04.724,0:11:05.896 u Amsterdamu. 0:11:06.620,0:11:09.211 A kad završe, pritisnućemo "Kreni" 0:11:09.235,0:11:12.546 i roboti će početi 3D tehnologijom[br]da štampaju nerđajući čelik 0:11:12.570,0:11:15.853 i nastaviće da štampaju[br]bez ljudskog uplitanja, 0:11:15.877,0:11:17.435 sve dok završe most. 0:11:18.769,0:11:21.697 Pa, kako će roboti[br]da prošire našu sposobnost 0:11:21.721,0:11:23.871 zamišljanja i dizajniranja novih stvari, 0:11:23.885,0:11:26.820 robotski sistemi će da nam pomognu[br]da gradimo i pravimo stvari 0:11:26.820,0:11:28.898 koje nismo mogli da pravimo pre. 0:11:30.017,0:11:34.177 No, šta je s našom sposobnošću[br]da osetimo i kontrolišemo ove stvari? 0:11:34.201,0:11:38.232 Kako bi bilo da imamo nervni sistem[br]kod stvari koje pravimo? 0:11:40.486,0:11:42.998 Naš nervni sistem, ljudski nervni sistem, 0:11:43.022,0:11:45.333 saopštava nam o svemu[br]što se dešava oko nas. 0:11:46.086,0:11:49.419 Međutim, nervni sitem stvari[br]koje pravimo je u najboljem slučaju prost. 0:11:49.419,0:11:51.578 Rekao bih da je trenutno[br]prilično bezvezan. 0:11:51.602,0:11:52.930 (Smeh) 0:11:52.954,0:11:56.817 Na primer, automobil ne saopštava[br]gradskom odseku za javne delatnosti 0:11:56.841,0:11:59.971 da je upravo udario u rupu[br]na uglu ulice Brodvej i Morison. 0:12:01.295,0:12:03.327 Građevina ne sopštava njenim dizajnerima 0:12:03.351,0:12:06.035 da li ljudi unutar nje vole da budu tu, 0:12:07.659,0:12:10.669 a proizvođač lutaka ne zna 0:12:10.693,0:12:12.700 da li se zaista igraju[br]njihovim igračkama - 0:12:12.724,0:12:15.263 kako, gde i da li su ili nisu zabavne. 0:12:15.880,0:12:19.694 Vidite, siguran sam da su dizajneri[br]zamislili ovakav stil života za barbiku 0:12:19.718,0:12:20.942 kada su je dizajnirali. 0:12:20.966,0:12:22.413 (Smeh) 0:12:23.237,0:12:26.143 Ali šta ako se ispostavi[br]da je barbi zapravo veoma usamljena? 0:12:26.167,0:12:30.302 (Smeh) 0:12:30.326,0:12:31.614 Kad bi dizajneri znali 0:12:31.638,0:12:33.745 šta se zaista dešava u stvarnom svetu 0:12:33.769,0:12:36.352 njihovim dizajnima - putevima,[br]građevinama, barbikama - 0:12:36.356,0:12:37.780 mogli bi da koriste to znanje 0:12:37.780,0:12:39.908 da stvore bolja iskustva za korisnike. 0:12:39.908,0:12:42.309 Nedostaje nervni sistem 0:12:42.333,0:12:46.042 koji bi nas povezao sa svim stvarima[br]koje dizajniramo, pravimo i koristimo. 0:12:46.975,0:12:50.530 Šta kad biste svi vi imali[br]dotok takvog oblika informacija 0:12:50.554,0:12:52.737 od stvari koje stvarate u stvarnom svetu? 0:12:54.492,0:12:55.943 Uz sve što pravimo, 0:12:55.967,0:12:58.402 trošimo ogromne količine[br]novca i energije - 0:12:58.426,0:13:00.802 zapravo, prošle godine,[br]skoro dva biliona dolara - 0:13:00.826,0:13:03.680 ubeđujući ljude da kupe[br]stvari koje pravimo. 0:13:03.704,0:13:07.092 Ali kad biste imali ovakvu vezu[br]sa stvarima koje dizajnirate i stvarate 0:13:07.116,0:13:08.843 kada se one nađu u stvarnom svetu, 0:13:08.867,0:13:12.481 nakon što ih prodaju[br]ili lansiraju ili šta god, 0:13:12.485,0:13:14.165 zapravo bismo mogli to da promenimo 0:13:14.165,0:13:17.596 i da se pomerimo[br]od ubeđivanja ljudi da vole naše stvari 0:13:17.620,0:13:21.054 do prosto pravljenja stvari[br]koje su ljudima prvenstveno potrebne. 0:13:24.478,0:13:27.265 Dobre vesti su da radimo[br]na digitalnom nervnom sistemu 0:13:27.289,0:13:30.090 koji bi nas povezao[br]sa stvarima koje dizajniramo. 0:13:31.225,0:13:32.852 Radimo na jednom projektu 0:13:32.876,0:13:37.888 sa nekoliko momaka iz Los Anđelesa,[br]koji sebe nazivaju Bandito Bradersima, 0:13:37.912,0:13:39.319 i njihovom ekipom. 0:13:39.343,0:13:42.776 A jedna od stvari koju ovi momci rade[br]je izgradnja ludih automobila 0:13:42.800,0:13:45.673 koji rade potpuno lude stvari. 0:13:47.065,0:13:48.515 Ovi momci su sumanuti - 0:13:48.539,0:13:49.575 (Smeh) 0:13:49.599,0:13:51.002 na najbolji način. 0:13:54.793,0:13:56.556 A mi s njima radimo 0:13:56.580,0:13:59.020 tako što uzmemo tradicionalnu[br]šasiju za trkačka auta 0:13:59.044,0:14:00.629 i ugrađujemo nervni sistem u nju. 0:14:00.653,0:14:03.771 Dakle, opskrbili smo je[br]desetinama senzora, 0:14:03.795,0:14:06.430 stavili smo iza volana[br]vozača svetske klase, 0:14:06.454,0:14:09.811 odvezli auto u pustinju[br]vozali ga do besvesti sedam dana. 0:14:09.835,0:14:12.326 A nervni sistem automobila je zabeležio 0:14:12.350,0:14:13.832 sve što se dešavalo automobilu. 0:14:13.856,0:14:16.477 Zabeležili smo četiri milijarde[br]jedinica podataka; 0:14:16.501,0:14:18.811 sve sile kojima je bilo izloženo. 0:14:18.835,0:14:20.494 A potom smo uradili nešto ludo. 0:14:21.238,0:14:22.738 Uzeli smo sve podatke 0:14:22.762,0:14:26.498 i priključili ih na VI genrativnog dizajna[br]koju nazivamo "Dreamcatcher". 0:14:27.240,0:14:31.204 Pa, šta dobijate kada dizajnerskom oruđu[br]date nervni sistem 0:14:31.228,0:14:34.110 i zatražite od njega da vam sagradi[br]najbolju šasiju za auto? 0:14:34.693,0:14:36.666 Dobijate ovo. 0:14:38.263,0:14:41.976 Ovo je nešto što ljudi[br]nikad ne bi mogli da dizajniraju. 0:14:42.677,0:14:44.565 Samo što ljudi ovo jesu dizajnirali, 0:14:44.589,0:14:48.842 ali to su bili ljudi prošireni[br]VI generativnog dizajna, 0:14:48.842,0:14:50.193 digitalnim nervnim sistemom 0:14:50.193,0:14:53.182 i robotima koji zapravo mogu[br]da proizvedu nešto ovakvo. 0:14:54.150,0:14:57.745 Pa, ako je ovo budućnost, prošireno doba, 0:14:57.769,0:15:02.030 a mi ćemo da budemo prošireni[br]kognitivno, fizički i čulno, 0:15:02.054,0:15:03.462 kako će to da izgleda? 0:15:04.046,0:15:06.712 Kako će da izgleda ova zemlja čuda? 0:15:08.291,0:15:10.900 Mislim da ćemo da vidimo svet 0:15:10.924,0:15:13.992 u kom se udaljavamo[br]od stvari koje se proizvode 0:15:15.101,0:15:16.546 do stvari koje se obrađuju. 0:15:18.429,0:15:22.374 U kom se udaljavamo od stvari[br]koje se konstruišu 0:15:22.398,0:15:24.102 do onih koje se gaje. 0:15:26.504,0:15:28.692 Udaljićemo se od izolacije 0:15:29.660,0:15:31.270 ka povezanosti. 0:15:33.104,0:15:36.015 I udaljićemo se od kopanja 0:15:36.039,0:15:37.912 ka sakupljanju. 0:15:40.437,0:15:44.204 Mislim i da ćemo se pomeriti[br]od žudnje da nam stvari budu poslušne 0:15:45.128,0:15:46.769 ka cenjenju autonomije. 0:15:49.450,0:15:51.455 Zahvaljujući našim[br]proširenim mogućnostima, 0:15:51.455,0:15:53.786 naš svet će da se drastično izmeni. 0:15:54.702,0:15:58.305 Mislim da je dobra analogija[br]neverovatni mikrokosmos koralnog grebena. 0:15:58.836,0:16:02.082 Imaćemo svet s više izbora,[br]više povezanosti, 0:16:02.106,0:16:04.393 dinamičniji, složeniji 0:16:04.417,0:16:06.735 prilagodljiviji i, naravno, 0:16:06.759,0:16:07.976 lepši. 0:16:08.741,0:16:10.305 Obrisi budućnosti 0:16:10.329,0:16:12.619 neće da liče na bilo šta[br]što smo videli do sad. 0:16:12.643,0:16:13.802 Zašto? 0:16:13.826,0:16:17.581 Jer će sve ovo da oblikuje[br]novo partnerstvo 0:16:17.605,0:16:21.275 između tehnologije, prirode i čovečanstva. 0:16:22.789,0:16:26.593 Za mene, to je budućnost[br]koju vredi iščekivati. 0:16:26.617,0:16:27.888 Mnogo vam hvala. 0:16:27.912,0:16:34.912 (Aplauz)