WEBVTT 00:00:10.847 --> 00:00:13.799 U redu, Portland, opa. Mnogo vam hvala što ste me pozvali. 00:00:14.038 --> 00:00:15.498 Volim da posećujem vaš grad. 00:00:15.522 --> 00:00:18.625 Mislim, gde na svetu bih imao ovakav doručak. 00:00:18.649 --> 00:00:20.315 (Smeh) 00:00:20.339 --> 00:00:23.632 I ovo je očigledno mesto sa mnogo kreativaca. 00:00:23.815 --> 00:00:25.111 (Smeh) 00:00:25.135 --> 00:00:27.424 Koliko vas su kreativci, 00:00:27.448 --> 00:00:31.072 dizajneri, inženjeri, preduzetnici, umetnici 00:00:31.096 --> 00:00:33.483 ili možda prosto imate veoma bujnu maštu? 00:00:33.507 --> 00:00:35.355 Pokažite ruke? (Klicanje) NOTE Paragraph 00:00:35.379 --> 00:00:36.560 To je većina vas. 00:00:37.734 --> 00:00:40.028 Imam novosti za nas kreativce. 00:00:41.114 --> 00:00:43.687 U narednih 20 godina, 00:00:45.871 --> 00:00:48.844 više će se promeniti način na koji obavljamo naše poslove 00:00:49.782 --> 00:00:51.939 nego u poslednjih 2000 godina. 00:00:52.768 --> 00:00:57.396 Zapravo, mislim da smo u praskozorju novog doba u ljudskoj istoriji. NOTE Paragraph 00:00:58.045 --> 00:01:02.624 Sad, imali smo četiri značajne istorijske ere, definisane načinom našeg rada. 00:01:03.804 --> 00:01:07.079 Doba lovaca i sakupljača koje je trajalo nekoliko miliona godina. 00:01:07.563 --> 00:01:11.139 A potom zemljoradničko doba koje je trajalo nekoliko hiljada godina. 00:01:11.405 --> 00:01:14.895 Industrijsko doba je trajalo nekoliko vekova. 00:01:14.919 --> 00:01:18.728 A sadašnje informaciono doba je trajalo svega nekoliko decenija. 00:01:19.230 --> 00:01:24.450 Trenutno smo kao vrsta na samom početku naše nove značajne ere. NOTE Paragraph 00:01:25.506 --> 00:01:28.186 Dobro došli u prošireno doba. 00:01:28.210 --> 00:01:31.903 U ovoj novoj eri, vaše prirodne ljudske sposobnosti će da budu proširene 00:01:31.927 --> 00:01:34.995 uz pomoć računarskih sistema koji vam pomažu da razmišljate, 00:01:35.119 --> 00:01:37.305 robotskih sistema koji vam pomažu da stvarate 00:01:37.329 --> 00:01:38.977 i digitalnih nervnih sistema 00:01:39.001 --> 00:01:42.691 koji vas povezuju sa svetom daleko izvan vaših prirodnih čula. 00:01:44.947 --> 00:01:46.889 Započnimo kognitivnim proširenjem. 00:01:46.913 --> 00:01:49.113 Koliko vas su prošireni kiborzi? NOTE Paragraph 00:01:49.270 --> 00:01:51.545 (Smeh) 00:01:51.569 --> 00:01:53.084 Ima tu tri ili četiri kiborga, 00:01:53.108 --> 00:01:54.791 to je prosto tako u Portlandu. 00:01:54.815 --> 00:01:58.025 (Smeh) 00:01:58.049 --> 00:01:59.231 Da, ostanite čudaci. 00:01:59.255 --> 00:02:01.543 (Smeh) NOTE Paragraph 00:02:01.567 --> 00:02:04.388 Ja bih zapravo rekao da smo svi mi prošireni. 00:02:05.048 --> 00:02:06.552 Zamislite da ste na zabavi 00:02:06.576 --> 00:02:10.096 i neko vam postavi pitanje na koje ne znate odgovor. 00:02:10.120 --> 00:02:13.880 Ako imate nešto slično ovome, za nekoliko sekundi možete znati odgovor. 00:02:14.629 --> 00:02:16.928 Ali ovo je tek primitivni početak. 00:02:17.623 --> 00:02:20.954 Čak je i Siri tek pasivno oruđe. 00:02:21.420 --> 00:02:24.801 Zapravo, u poslednjih tri i po miliona godina, 00:02:24.825 --> 00:02:28.348 oruđa koja smo imali su bila potpuno pasivna. 00:02:29.563 --> 00:02:33.218 Ona rade tačno ono što im kažemo i ništa više. 00:02:33.242 --> 00:02:36.343 Naše prvo oruđe je jedino seklo onde gde bismo udarili njime. 00:02:37.382 --> 00:02:40.422 Dleto rezbari samo onde gde ga umetnik usmeri. 00:02:40.818 --> 00:02:46.544 Čak i naša najnaprednija oruđa ne rade bilo šta bez naših eksplicitnih naredbi. 00:02:47.598 --> 00:02:50.779 Zapravo, do danas, a to je nešto što me nervira, 00:02:50.803 --> 00:02:52.251 oduvek smo bili ograničeni 00:02:52.275 --> 00:02:55.776 potrebom da ručno uteramo našu volju u naše alate - 00:02:55.800 --> 00:02:58.097 ručno, bukvalno koristeći naše ruke, 00:02:58.121 --> 00:02:59.549 čak i sa kompjuterima. 00:03:00.662 --> 00:03:03.125 No ja sam više nalik Skotiju iz "Zvezdanih staza". NOTE Paragraph 00:03:03.149 --> 00:03:04.999 (Smeh) NOTE Paragraph 00:03:05.023 --> 00:03:07.169 Želim da razgovaram s kompjuterom. 00:03:07.193 --> 00:03:10.163 Želim da kažem: "Kompjuteru, hajde da dizajniramo automobil", 00:03:10.187 --> 00:03:11.726 i kompjuter mi pokaže automobil. 00:03:11.750 --> 00:03:14.358 A ja kažem: "Ne, da izgleda brže i manje nemački", 00:03:14.382 --> 00:03:16.545 i, bum, kompjuter mi pokaže opciju. NOTE Paragraph 00:03:16.569 --> 00:03:18.434 (Smeh) NOTE Paragraph 00:03:18.798 --> 00:03:21.104 Taj razgovor je možda malčice daleko, 00:03:21.128 --> 00:03:23.793 verovatno manje nego što većina nas misli, 00:03:23.817 --> 00:03:25.580 ali trenutno 00:03:25.604 --> 00:03:26.755 radimo na tome. 00:03:26.779 --> 00:03:30.812 Oruđa prave ovaj skok od pasivnih do stvaralačkih. 00:03:31.421 --> 00:03:36.069 Stvaralačka dizajnerska oruđa koriste kompjutere i algoritme, 00:03:36.093 --> 00:03:38.901 da bi tim spojem stvorila geometriju 00:03:38.925 --> 00:03:41.679 i potpuno sama došla do novih dizajna. 00:03:42.126 --> 00:03:44.874 Sve što im je potrebno su vaši ciljevi i vaša ograničenja. NOTE Paragraph 00:03:44.898 --> 00:03:46.306 Daću vam jedan primer. 00:03:46.330 --> 00:03:49.118 U slučaju ove vazdušne šasije drona, 00:03:49.142 --> 00:03:51.768 sve što bi trebalo da uradite je da tražite sledeće: 00:03:51.792 --> 00:03:53.065 da ima četiri propelera, 00:03:53.089 --> 00:03:55.220 želite da bude što lakša 00:03:55.244 --> 00:03:57.514 i želite da ima aerodinamičnu efikasnost. 00:03:57.538 --> 00:04:02.452 Potom kompjuter istražuje celokupan prostor rešenja: 00:04:02.476 --> 00:04:06.403 baš svaku mogućnost koja rešava i ispunjava vaše kriterijume - 00:04:06.427 --> 00:04:07.853 milione njih. 00:04:07.853 --> 00:04:09.888 Potrebni su veliki kompjuteri da to obave. 00:04:09.892 --> 00:04:11.847 Ali su nam uzvratili dizajnima 00:04:11.871 --> 00:04:15.014 koje mi sami ne bismo nikad mogli da zamislimo. 00:04:15.456 --> 00:04:18.368 A kompjuter je sam došao do ovoga - 00:04:18.392 --> 00:04:20.070 niko nikad nije nacrtao bilo šta - 00:04:20.094 --> 00:04:22.180 i započeo je potpuno od nule. 00:04:23.168 --> 00:04:25.555 I, usput, nije slučajno 00:04:25.579 --> 00:04:29.060 da telo drona izgleda baš kao karlica leteće veverice. NOTE Paragraph 00:04:29.231 --> 00:04:32.146 (Smeh) NOTE Paragraph 00:04:32.170 --> 00:04:34.472 To je tako jer su algoritmi dizajnirani da deluju 00:04:34.496 --> 00:04:36.133 na isti način kao evolucija. NOTE Paragraph 00:04:37.045 --> 00:04:39.705 Uzbudljivo je što počinjemo da gledamo ovu tehnologiju 00:04:39.729 --> 00:04:40.888 u stvarnom svetu. 00:04:40.912 --> 00:04:43.364 Nekoliko godina smo radili sa Erbasom 00:04:43.388 --> 00:04:45.297 na konceptu aviona iz budućnosti. 00:04:45.321 --> 00:04:47.391 I dalje je ispred svog vremena. 00:04:47.415 --> 00:04:51.195 Ali baš nedavno smo koristili generativni dizajn veštačke inteligencije 00:04:51.219 --> 00:04:53.026 da bismo smislili ovo. 00:04:53.939 --> 00:04:59.092 Ovo je pregrada odštampana 3D štampačem, koju je dizajnirao kompjuter. 00:04:59.116 --> 00:05:01.940 Jača je od prvobitne, a ipak je upola lakša 00:05:01.964 --> 00:05:05.110 i leteće u erbasu A320 kasnije ove godine. 00:05:06.835 --> 00:05:09.024 Kompjuteri sad mogu da stvaraju; 00:05:09.048 --> 00:05:13.643 mogu da osmisle sopstvena rešenja za naše dobro definisane probleme. 00:05:14.737 --> 00:05:16.047 Ali nisu intuitivni. 00:05:16.071 --> 00:05:19.157 I dalje moraju da počnu od nule, baš svaki put, 00:05:19.181 --> 00:05:21.871 a to je zato što nikad ne nauče. 00:05:22.768 --> 00:05:24.534 Za razliku od Megi. NOTE Paragraph 00:05:24.558 --> 00:05:26.139 (Smeh) NOTE Paragraph 00:05:26.163 --> 00:05:29.460 Megi je zapravo pametnija od naših najnaprednijih dizajnerskih oruđa. 00:05:29.867 --> 00:05:31.367 Šta podrazumevam time? 00:05:31.391 --> 00:05:32.981 Ako njen vlasnik uzme povodac, 00:05:33.005 --> 00:05:35.073 Megi zna s porpiličnim stepenom izvesnosti 00:05:35.097 --> 00:05:36.501 da je vreme za šetnju. 00:05:36.525 --> 00:05:37.710 A kako je naučila? 00:05:37.734 --> 00:05:41.058 Pa, svaki put kad je vlasnik uzeo povodac, išli su u šetnju. 00:05:41.082 --> 00:05:42.960 I Megi je obavila tri stvari: 00:05:42.984 --> 00:05:44.853 morala je da obrati pažnju, 00:05:44.877 --> 00:05:46.959 morala je da se priseti šta se desilo 00:05:46.983 --> 00:05:51.000 i morala je da zadrži i stvori obrazac u svom umu. NOTE Paragraph 00:05:51.889 --> 00:05:53.984 Zanimljivo je da je upravo to ono što 00:05:54.008 --> 00:05:56.581 naučnici za kompjutere pokušavaju da navedu VI da uradi 00:05:56.581 --> 00:05:58.414 u poslednjih oko 60 godina. 00:05:59.783 --> 00:06:01.132 Te 1952. 00:06:01.156 --> 00:06:04.957 su sagradili ovaj kompjuter koji je mogao da igra iks-oks. 00:06:06.181 --> 00:06:07.341 Velika stvar. 00:06:08.129 --> 00:06:11.129 Potom, 45 godina kasnije, 1997. 00:06:11.153 --> 00:06:13.625 Deep Blue je pobedio Kasparova u šahu. 00:06:15.146 --> 00:06:20.114 Godine 2011, Watson je pobedio ova dva čoveka u kvizu, 00:06:20.138 --> 00:06:23.066 što je daleko teže za kompjuter da iga od šaha. 00:06:23.090 --> 00:06:26.902 Zapravo, umesto da radi na osnovu već definisanih recepata, 00:06:26.926 --> 00:06:30.479 Votson je morao da koristi rasuđivanje da bi prevazišao ljudske protivnike. 00:06:31.493 --> 00:06:33.932 A onda, pre nekoliko nedelja, 00:06:33.956 --> 00:06:38.218 AlphaGo iz DeepMind-a je pobedio ljudsko biće koje je najbolje u gou, 00:06:38.242 --> 00:06:40.454 a to je najkomplikovanija igra koju imamo. 00:06:40.478 --> 00:06:43.974 Zapravo, ima više mogućih poteza u gou 00:06:43.998 --> 00:06:46.022 nego što ima atoma u univerzumu. 00:06:47.910 --> 00:06:49.736 Pa, kako bi pobedio, 00:06:49.760 --> 00:06:52.774 AlphaGo je morao da razvije intuiciju. 00:06:52.798 --> 00:06:56.908 I zapravo, u nekim momentima programeri AlphaGo-a nisu razumeli 00:06:56.932 --> 00:06:59.218 zašto je AlphaGo radio to što radi. NOTE Paragraph 00:07:01.151 --> 00:07:02.811 A stvari se odvijaju zaista brzo. 00:07:02.835 --> 00:07:06.062 Mislim, razmotrite - u okviru ljudskog životnog veka, 00:07:06.086 --> 00:07:08.319 kompjuteri su prešli od dečje igre 00:07:09.620 --> 00:07:12.668 do onoga što se smatra vrhuncem strateškog mišljenja. 00:07:13.699 --> 00:07:16.116 U suštini se dešava to 00:07:16.140 --> 00:07:19.450 da kompjuteri prestaju da budu poput Spoka 00:07:20.474 --> 00:07:22.423 i postaju mnogo više nalik Kirku. NOTE Paragraph 00:07:22.447 --> 00:07:26.065 (Smeh) NOTE Paragraph 00:07:26.089 --> 00:07:29.513 Je li tako? Od čiste logike do intuicije. 00:07:31.584 --> 00:07:33.327 Da li biste prešli ovaj most? 00:07:34.009 --> 00:07:36.332 Većina vas govori: "Uh, nema šanse!" NOTE Paragraph 00:07:36.356 --> 00:07:37.664 (Smeh) NOTE Paragraph 00:07:37.688 --> 00:07:40.345 A stigli ste do te odluke u deliću sekunde. 00:07:40.369 --> 00:07:42.797 Prosto ste nekako znali da taj most nije bezbedan. 00:07:42.821 --> 00:07:44.810 A upravo je to tip intuicije 00:07:44.834 --> 00:07:48.402 koju naši sistemi dubinskog učenja trenutno počinju da razvijaju. 00:07:49.122 --> 00:07:50.593 Veoma brzo ćete bukvalno moći 00:07:50.593 --> 00:07:53.782 da pokažete kompjuteru nešto što ste napravili, što ste dizajnirali 00:07:53.806 --> 00:07:55.439 i on će to da pogleda i kaže: 00:07:55.463 --> 00:07:58.286 "Izvini, druže, to neće proći. Moraš opet da pokušaš." 00:07:59.254 --> 00:08:02.594 Ili ćete moći da ga pitate da li će se ljudima sviđati vaša nova pesma 00:08:03.173 --> 00:08:05.236 ili vaš novi ukus sladoleda. 00:08:06.949 --> 00:08:09.432 Ili, što je još važnije, 00:08:09.432 --> 00:08:12.006 moći ćete raditi sa kompjuterom da biste rešili problem 00:08:12.006 --> 00:08:13.577 s kojim se pre nismo suočili. 00:08:13.601 --> 00:08:15.002 Na primer, klimatske promene. 00:08:15.026 --> 00:08:17.046 Sami ne obavljamo posao naročito dobro, 00:08:17.070 --> 00:08:19.315 svakako da bi nam koristila sva moguća pomoć. 00:08:19.339 --> 00:08:20.791 O tome govorim, 00:08:20.791 --> 00:08:23.406 o tehnologiji koja naglašava naše kognitivne sposobnosti 00:08:23.406 --> 00:08:26.952 kako bismo mogli da zamislimo i dizajniramo stvari koje nisu dostupne 00:08:26.976 --> 00:08:29.535 nama, prostim starim neproširenim ljudima. NOTE Paragraph 00:08:31.384 --> 00:08:34.375 Pa, o čemu se radi kod stvaranja svih tih blesavih novih stvari 00:08:34.375 --> 00:08:36.790 koje ćemo izumeti i dizajnirati? 00:08:37.352 --> 00:08:41.445 Mislim da se u eri ljudskog proširivanja podjednako radi o fizičkom svetu 00:08:41.469 --> 00:08:44.534 kao i o virtuelnoj, intelektualnoj sferi. 00:08:45.233 --> 00:08:47.154 Kako će nas tehnologija proširiti? 00:08:47.565 --> 00:08:50.038 U fizičkom svetu, biće to robotski sistemi. 00:08:51.620 --> 00:08:53.356 U redu, svakako da postoji strah 00:08:53.380 --> 00:08:55.868 da će roboti da oduzmu poslove ljudima, 00:08:55.892 --> 00:08:57.722 to je tačno za određene sektore. 00:08:58.174 --> 00:09:01.052 No, mene više zanima zamisao 00:09:01.076 --> 00:09:06.086 da će ljudi i roboti radeći zajedno proširiti jedni druge, 00:09:06.110 --> 00:09:08.022 i počeće da naseljavaju nove prostore. NOTE Paragraph 00:09:08.022 --> 00:09:10.854 Ovo je primenjena istraživačka laboratorija u San Francisku, 00:09:10.854 --> 00:09:13.920 gde je napredna robotika jedna od oblasti na koje se fokusiramo, 00:09:13.920 --> 00:09:16.255 naročito saradnja između ljudi i robota. 00:09:17.034 --> 00:09:19.793 A ovo je Bišop, jedan od naših robota. 00:09:19.817 --> 00:09:21.606 Kao eksperiment, podesili smo ga 00:09:21.630 --> 00:09:25.090 da pomaže osobi koja na građevini obavlja repetitivne poslove - 00:09:25.984 --> 00:09:30.178 poslove poput bušenja rupa u gips-kartonu za utičnice ili prekidače za svetla. NOTE Paragraph 00:09:30.202 --> 00:09:32.668 (Smeh) NOTE Paragraph 00:09:33.877 --> 00:09:36.952 Dakle, Bišopov ljudski partner može da mu objasni na engleskom 00:09:36.952 --> 00:09:38.407 i jednostavnom gestikulacijom, 00:09:38.407 --> 00:09:39.788 poput razgovaranja sa psom, 00:09:39.812 --> 00:09:41.955 a potom Bišop, izvodi ta uputstva 00:09:41.979 --> 00:09:43.871 savršenom preciznošću. 00:09:43.895 --> 00:09:46.884 Koristimo ljude za ono u čemu su dobri: 00:09:46.908 --> 00:09:49.241 svesnost, percepcija i donošenje odluka. 00:09:49.265 --> 00:09:51.505 A koristimo robota za ono u čemu je dobar: 00:09:51.529 --> 00:09:53.277 preciznost i ponavljanje. NOTE Paragraph 00:09:54.252 --> 00:09:56.619 Još jedan sjajan projekat na kom je radio Bišop. 00:09:56.643 --> 00:09:59.718 Cilj ovog projekta, koga smo nazvali HIVE, 00:09:59.742 --> 00:10:03.593 bio je da testira iskustvo ljudi, kompjutera i robota 00:10:03.617 --> 00:10:06.977 gde svi rade zajedno kako bi rešili veoma složene dizajnerske probleme. 00:10:07.703 --> 00:10:09.294 Ljudi su služili kao radna snaga. 00:10:09.294 --> 00:10:12.741 Kružili su po gradilištu, rukovali bambusom - 00:10:12.765 --> 00:10:15.521 koji je, usput, stoga što je neizomorfan materijal, 00:10:15.545 --> 00:10:17.419 veoma težak robotima za rukovanje. 00:10:17.543 --> 00:10:19.865 No, potom su roboti namotavali ovo vlakno, 00:10:19.889 --> 00:10:22.340 a to je skoro nemoguće za ljude da urade. 00:10:22.364 --> 00:10:25.985 A potom smo imali VI koja je sve kontrolisala. 00:10:26.109 --> 00:10:29.399 Govorila je ljudima šta da rade, govorila je robotima šta da rade 00:10:29.423 --> 00:10:32.338 i nadgledala hiljade pojedinačnih komponenti. 00:10:32.362 --> 00:10:33.542 Zanimljivo je 00:10:33.566 --> 00:10:36.707 da je izgradnja ovog paviljona prosto bila nemoguća 00:10:36.731 --> 00:10:41.255 bez ljudi, robota i VI koji proširuju jedni druge. NOTE Paragraph 00:10:42.390 --> 00:10:45.710 Podeliću sa vama još jedan projekat. Ovaj je malčice blesav. 00:10:47.734 --> 00:10:52.202 Radimo sa umetnicima iz Amsterdama, Jorisom Larmanom i njegovom ekipom iz MX3D 00:10:53.526 --> 00:10:56.404 da bismo generativno dizajnirali i robotski odštampali 00:10:56.428 --> 00:10:59.423 prvi u svetu autonomno proizveden most. 00:11:01.015 --> 00:11:04.700 Dakle, Joris i VI baš dok govorimo dizajniraju taj objekat 00:11:04.724 --> 00:11:05.896 u Amsterdamu. 00:11:06.620 --> 00:11:09.211 A kad završe, pritisnućemo "Kreni" 00:11:09.235 --> 00:11:12.546 i roboti će početi 3D tehnologijom da štampaju nerđajući čelik 00:11:12.570 --> 00:11:15.853 i nastaviće da štampaju bez ljudskog uplitanja, 00:11:15.877 --> 00:11:17.435 sve dok završe most. NOTE Paragraph 00:11:18.769 --> 00:11:21.697 Pa, kako će roboti da prošire našu sposobnost 00:11:21.721 --> 00:11:23.871 zamišljanja i dizajniranja novih stvari, 00:11:23.885 --> 00:11:26.820 robotski sistemi će da nam pomognu da gradimo i pravimo stvari 00:11:26.820 --> 00:11:28.898 koje nismo mogli da pravimo pre. 00:11:30.017 --> 00:11:34.177 No, šta je s našom sposobnošću da osetimo i kontrolišemo ove stvari? 00:11:34.201 --> 00:11:38.232 Kako bi bilo da imamo nervni sistem kod stvari koje pravimo? NOTE Paragraph 00:11:40.486 --> 00:11:42.998 Naš nervni sistem, ljudski nervni sistem, 00:11:43.022 --> 00:11:45.333 saopštava nam o svemu što se dešava oko nas. 00:11:46.086 --> 00:11:49.419 Međutim, nervni sitem stvari koje pravimo je u najboljem slučaju prost. 00:11:49.419 --> 00:11:51.578 Rekao bih da je trenutno prilično bezvezan. 00:11:51.602 --> 00:11:52.930 (Smeh) 00:11:52.954 --> 00:11:56.817 Na primer, automobil ne saopštava gradskom odseku za javne delatnosti 00:11:56.841 --> 00:11:59.971 da je upravo udario u rupu na uglu ulice Brodvej i Morison. 00:12:01.295 --> 00:12:03.327 Građevina ne sopštava njenim dizajnerima 00:12:03.351 --> 00:12:06.035 da li ljudi unutar nje vole da budu tu, 00:12:07.659 --> 00:12:10.669 a proizvođač lutaka ne zna 00:12:10.693 --> 00:12:12.700 da li se zaista igraju njihovim igračkama - 00:12:12.724 --> 00:12:15.263 kako, gde i da li su ili nisu zabavne. 00:12:15.880 --> 00:12:19.694 Vidite, siguran sam da su dizajneri zamislili ovakav stil života za barbiku 00:12:19.718 --> 00:12:20.942 kada su je dizajnirali. NOTE Paragraph 00:12:20.966 --> 00:12:22.413 (Smeh) NOTE Paragraph 00:12:23.237 --> 00:12:26.143 Ali šta ako se ispostavi da je barbi zapravo veoma usamljena? NOTE Paragraph 00:12:26.167 --> 00:12:30.302 (Smeh) NOTE Paragraph 00:12:30.326 --> 00:12:31.614 Kad bi dizajneri znali 00:12:31.638 --> 00:12:33.745 šta se zaista dešava u stvarnom svetu 00:12:33.769 --> 00:12:36.352 njihovim dizajnima - putevima, građevinama, barbikama - 00:12:36.356 --> 00:12:37.780 mogli bi da koriste to znanje 00:12:37.780 --> 00:12:39.908 da stvore bolja iskustva za korisnike. 00:12:39.908 --> 00:12:42.309 Nedostaje nervni sistem 00:12:42.333 --> 00:12:46.042 koji bi nas povezao sa svim stvarima koje dizajniramo, pravimo i koristimo. 00:12:46.975 --> 00:12:50.530 Šta kad biste svi vi imali dotok takvog oblika informacija 00:12:50.554 --> 00:12:52.737 od stvari koje stvarate u stvarnom svetu? 00:12:54.492 --> 00:12:55.943 Uz sve što pravimo, 00:12:55.967 --> 00:12:58.402 trošimo ogromne količine novca i energije - 00:12:58.426 --> 00:13:00.802 zapravo, prošle godine, skoro dva biliona dolara - 00:13:00.826 --> 00:13:03.680 ubeđujući ljude da kupe stvari koje pravimo. 00:13:03.704 --> 00:13:07.092 Ali kad biste imali ovakvu vezu sa stvarima koje dizajnirate i stvarate 00:13:07.116 --> 00:13:08.843 kada se one nađu u stvarnom svetu, 00:13:08.867 --> 00:13:12.481 nakon što ih prodaju ili lansiraju ili šta god, 00:13:12.485 --> 00:13:14.165 zapravo bismo mogli to da promenimo 00:13:14.165 --> 00:13:17.596 i da se pomerimo od ubeđivanja ljudi da vole naše stvari 00:13:17.620 --> 00:13:21.054 do prosto pravljenja stvari koje su ljudima prvenstveno potrebne. NOTE Paragraph 00:13:24.478 --> 00:13:27.265 Dobre vesti su da radimo na digitalnom nervnom sistemu 00:13:27.289 --> 00:13:30.090 koji bi nas povezao sa stvarima koje dizajniramo. 00:13:31.225 --> 00:13:32.852 Radimo na jednom projektu 00:13:32.876 --> 00:13:37.888 sa nekoliko momaka iz Los Anđelesa, koji sebe nazivaju Bandito Bradersima, 00:13:37.912 --> 00:13:39.319 i njihovom ekipom. 00:13:39.343 --> 00:13:42.776 A jedna od stvari koju ovi momci rade je izgradnja ludih automobila 00:13:42.800 --> 00:13:45.673 koji rade potpuno lude stvari. 00:13:47.065 --> 00:13:48.515 Ovi momci su sumanuti - NOTE Paragraph 00:13:48.539 --> 00:13:49.575 (Smeh) NOTE Paragraph 00:13:49.599 --> 00:13:51.002 na najbolji način. 00:13:54.793 --> 00:13:56.556 A mi s njima radimo 00:13:56.580 --> 00:13:59.020 tako što uzmemo tradicionalnu šasiju za trkačka auta 00:13:59.044 --> 00:14:00.629 i ugrađujemo nervni sistem u nju. NOTE Paragraph 00:14:00.653 --> 00:14:03.771 Dakle, opskrbili smo je desetinama senzora, 00:14:03.795 --> 00:14:06.430 stavili smo iza volana vozača svetske klase, 00:14:06.454 --> 00:14:09.811 odvezli auto u pustinju vozali ga do besvesti sedam dana. 00:14:09.835 --> 00:14:12.326 A nervni sistem automobila je zabeležio 00:14:12.350 --> 00:14:13.832 sve što se dešavalo automobilu. 00:14:13.856 --> 00:14:16.477 Zabeležili smo četiri milijarde jedinica podataka; 00:14:16.501 --> 00:14:18.811 sve sile kojima je bilo izloženo. 00:14:18.835 --> 00:14:20.494 A potom smo uradili nešto ludo. 00:14:21.238 --> 00:14:22.738 Uzeli smo sve podatke 00:14:22.762 --> 00:14:26.498 i priključili ih na VI genrativnog dizajna koju nazivamo "Dreamcatcher". 00:14:27.240 --> 00:14:31.204 Pa, šta dobijate kada dizajnerskom oruđu date nervni sistem 00:14:31.228 --> 00:14:34.110 i zatražite od njega da vam sagradi najbolju šasiju za auto? 00:14:34.693 --> 00:14:36.666 Dobijate ovo. 00:14:38.263 --> 00:14:41.976 Ovo je nešto što ljudi nikad ne bi mogli da dizajniraju. 00:14:42.677 --> 00:14:44.565 Samo što ljudi ovo jesu dizajnirali, 00:14:44.589 --> 00:14:48.842 ali to su bili ljudi prošireni VI generativnog dizajna, 00:14:48.842 --> 00:14:50.193 digitalnim nervnim sistemom 00:14:50.193 --> 00:14:53.182 i robotima koji zapravo mogu da proizvedu nešto ovakvo. NOTE Paragraph 00:14:54.150 --> 00:14:57.745 Pa, ako je ovo budućnost, prošireno doba, 00:14:57.769 --> 00:15:02.030 a mi ćemo da budemo prošireni kognitivno, fizički i čulno, 00:15:02.054 --> 00:15:03.462 kako će to da izgleda? 00:15:04.046 --> 00:15:06.712 Kako će da izgleda ova zemlja čuda? NOTE Paragraph 00:15:08.291 --> 00:15:10.900 Mislim da ćemo da vidimo svet 00:15:10.924 --> 00:15:13.992 u kom se udaljavamo od stvari koje se proizvode 00:15:15.101 --> 00:15:16.546 do stvari koje se obrađuju. 00:15:18.429 --> 00:15:22.374 U kom se udaljavamo od stvari koje se konstruišu 00:15:22.398 --> 00:15:24.102 do onih koje se gaje. 00:15:26.504 --> 00:15:28.692 Udaljićemo se od izolacije 00:15:29.660 --> 00:15:31.270 ka povezanosti. 00:15:33.104 --> 00:15:36.015 I udaljićemo se od kopanja 00:15:36.039 --> 00:15:37.912 ka sakupljanju. 00:15:40.437 --> 00:15:44.204 Mislim i da ćemo se pomeriti od žudnje da nam stvari budu poslušne 00:15:45.128 --> 00:15:46.769 ka cenjenju autonomije. NOTE Paragraph 00:15:49.450 --> 00:15:51.455 Zahvaljujući našim proširenim mogućnostima, 00:15:51.455 --> 00:15:53.786 naš svet će da se drastično izmeni. 00:15:54.702 --> 00:15:58.305 Mislim da je dobra analogija neverovatni mikrokosmos koralnog grebena. 00:15:58.836 --> 00:16:02.082 Imaćemo svet s više izbora, više povezanosti, 00:16:02.106 --> 00:16:04.393 dinamičniji, složeniji 00:16:04.417 --> 00:16:06.735 prilagodljiviji i, naravno, 00:16:06.759 --> 00:16:07.976 lepši. 00:16:08.741 --> 00:16:10.305 Obrisi budućnosti 00:16:10.329 --> 00:16:12.619 neće da liče na bilo šta što smo videli do sad. 00:16:12.643 --> 00:16:13.802 Zašto? 00:16:13.826 --> 00:16:17.581 Jer će sve ovo da oblikuje novo partnerstvo 00:16:17.605 --> 00:16:21.275 između tehnologije, prirode i čovečanstva. 00:16:22.789 --> 00:16:26.593 Za mene, to je budućnost koju vredi iščekivati. NOTE Paragraph 00:16:26.617 --> 00:16:27.888 Mnogo vam hvala. NOTE Paragraph 00:16:27.912 --> 00:16:34.912 (Aplauz)