0:00:00.735,0:00:03.024 Câți dintre voi sunteți creatori, 0:00:03.048,0:00:06.672 designeri, ingineri, [br]antrepenori, artiști 0:00:06.696,0:00:09.083 sau poate doar aveți[br]o imaginație debordantă? 0:00:09.107,0:00:10.955 Ridicați mâna.[br](Aclamații) 0:00:10.979,0:00:12.160 Majoritatea. 0:00:13.334,0:00:15.628 Am vești pentru noi, cei creativi. 0:00:16.714,0:00:19.287 În următorii 20 de ani, 0:00:21.471,0:00:24.444 se vor schimba mai multe lucruri[br]în felul în care lucrăm 0:00:25.382,0:00:27.539 decât în ultimii 2000 de ani. 0:00:28.511,0:00:33.139 De fapt, cred că suntem la răsăritul[br]unei noi ere a istoriei umane. 0:00:33.645,0:00:38.406 Până acum au fost 4 mari ere[br]istorice definite de felul în care lucrăm. 0:00:39.404,0:00:42.679 Era vânătorilor-culegători[br]a durat câteva milioane de ani. 0:00:43.163,0:00:46.739 Apoi Era agricultorilor[br]a durat câteva mii de ani. 0:00:47.195,0:00:50.685 Era industrială[br]a durat câteva secole. 0:00:50.709,0:00:54.996 Acum, Era informației[br]durează doar de câteva decenii. 0:00:55.020,0:01:00.240 În prezent, suntem la apogeul[br]următoarei mari ere ca specie. 0:01:01.296,0:01:03.976 Bun venit în Era augmentării. 0:01:04.000,0:01:07.693 În această nouă eră, capacitățile[br]naturale de om urmează să fie depășite 0:01:07.717,0:01:10.785 de sisteme computaționale[br]care vă ajută să gândiți, 0:01:10.809,0:01:12.995 de sisteme robotizate[br]care vă ajută să creați 0:01:13.019,0:01:14.667 și de un sistem nervos digital 0:01:14.691,0:01:18.381 care vă conectează la lume[br]dincolo de simțurile naturale. 0:01:19.437,0:01:21.379 Să începem cu augmentarea cognitivă. 0:01:21.403,0:01:23.603 Câți dintre voi sunteți cyborgi evoluați? 0:01:24.133,0:01:26.783 (Râsete) 0:01:26.807,0:01:29.628 De fapt aș susține faptul[br]că suntem deja evoluați. 0:01:30.288,0:01:32.182 Imaginați-vă că sunteți [br]la o petrecere 0:01:32.182,0:01:35.336 și cineva vă pune o întrebare[br]la care nu știți răspunsul. 0:01:35.360,0:01:39.120 Dacă aveți așa ceva, în câteva[br]secunde ați ști răspunsul. 0:01:39.869,0:01:42.168 Acesta este doar un început primitiv. 0:01:42.863,0:01:46.194 Chiar și Siri e doar un instrument pasiv. 0:01:46.660,0:01:50.041 De fapt, în ultimii 3 milioane[br]și jumătate de ani, 0:01:50.065,0:01:53.174 instrumentele pe care le-am avut[br]au fost total pasive. 0:01:54.203,0:01:57.858 Fac doar ce le spunem noi[br]și nimic mai mult. 0:01:57.882,0:02:00.983 Prima noastră unealtă adevărată [br]tăia doar unde loveam cu ea. 0:02:01.822,0:02:04.862 Dalta cioplește doar unde[br]o îndreaptă artistul. 0:02:05.343,0:02:10.984 Chiar și cele mai avansate unelte[br]nu fac nimic fără instrucțiuni explicite. 0:02:11.008,0:02:14.189 În realitate, și asta este frustrant, 0:02:14.213,0:02:15.661 mereu am fost limitați 0:02:15.685,0:02:19.186 de nevoia de a ne transpune manual[br]dorințele în unelte, 0:02:19.210,0:02:23.737 folosindu-ne efectiv de mâini,[br]chiar și în cazul calculatoarelor. 0:02:24.072,0:02:26.535 Eu semăn mai mult cu Scotty[br]din Star Trek. 0:02:26.559,0:02:28.409 (Râsete) 0:02:28.433,0:02:30.579 Vreau să am o conversație cu un computer. 0:02:30.603,0:02:33.573 Vreau să spun: „Calculatorule,[br]hai să proiectăm o mașină”, 0:02:33.597,0:02:35.396 iar calculatorul să-mi arate mașina. 0:02:35.396,0:02:37.918 Și eu spun: „Să fie mai rapidă,[br]și mai puțin germană.” 0:02:37.928,0:02:40.075 și bang, calculatorul[br]să-mi arate o variantă. 0:02:40.075,0:02:41.844 (Râsete) 0:02:42.208,0:02:44.514 Această conversație poate fi[br]prea avansată, 0:02:44.538,0:02:47.203 probabil mai puțin decât credem mulți, 0:02:47.227,0:02:48.990 dar chiar acum 0:02:49.014,0:02:50.165 lucrăm la asta. 0:02:50.189,0:02:54.222 Instrumentele fac acest salt[br]de la a fi pasiv la a fi generativ. 0:02:54.831,0:02:58.139 Crearea instrumentelor generative[br]folosește un computer și algoritmi 0:02:58.163,0:03:00.771 care să sintetizeze geometria 0:03:00.795,0:03:03.549 să vină singură cu noi modele.[br] 0:03:03.996,0:03:06.744 Tot ce trebuie sunt obiectivele[br]și restrângerile tale. 0:03:06.768,0:03:08.176 Să vă dau un exemplu. 0:03:08.200,0:03:10.988 În cazul acesui șasiu de dronă aeriană, 0:03:11.012,0:03:13.638 tot ce trebuie să faci[br]e să îi spui ceva ca: 0:03:13.662,0:03:14.935 are 4 elice, 0:03:14.959,0:03:17.090 o greutate cât mai mică 0:03:17.114,0:03:19.384 și să fie eficientă aerodinamic. 0:03:19.408,0:03:24.322 Apoi computerul examinează[br]întregul interval de soluții: 0:03:24.346,0:03:28.273 fiecare posibilitate care [br]se potrivește criteriilor tale; 0:03:28.297,0:03:29.739 sunt milioane. 0:03:29.763,0:03:31.738 E nevoie de un computer enorm[br]pentru asta. 0:03:31.762,0:03:33.717 Apoi ne arată modele[br] 0:03:33.741,0:03:36.884 pe care noi, fără ajutor,[br]nu ni le-am fi putut imagina. 0:03:37.326,0:03:40.238 Calculatorul inventează asta singur, 0:03:40.262,0:03:41.940 nimeni nu desenează nimic 0:03:41.964,0:03:44.050 și începe de la zero. 0:03:45.038,0:03:47.425 Apropo, nu accidental 0:03:47.449,0:03:50.930 drona arată ca bazinul[br]unei veverițe zburătoare. 0:03:51.287,0:03:53.294 (Râsete) 0:03:54.040,0:03:56.342 Algoritmii sunt făcuți să funcționeze 0:03:56.366,0:03:58.003 la fel ca evoluția. 0:03:58.715,0:04:01.375 Interesant e că începem [br]să vedem această tehnologie 0:04:01.399,0:04:02.558 în lumea reală. 0:04:02.582,0:04:05.034 Am lucrat cu Airbus câțiva ani 0:04:05.058,0:04:06.967 la un concept de avion al viitorului. 0:04:06.991,0:04:09.061 Încă e un proiect. 0:04:09.085,0:04:12.865 Chiar recent am folosit[br]un model generativ de IA[br] 0:04:12.889,0:04:14.696 care a venit cu asta. 0:04:15.609,0:04:20.762 Aceasta este o cabină printată 3D [br]proiectată de un computer. 0:04:20.786,0:04:23.610 E mai bună decât originalul,[br]și cântărește jumătate din el, 0:04:23.634,0:04:26.780 și va zbura în Airbus[br]A320 la sfârșitul anului. 0:04:27.405,0:04:28.964 Deci computerele pot crea acum. 0:04:28.988,0:04:33.583 Pot veni cu propriile soluții[br]la problemele noastre bine definite.[br] 0:04:34.677,0:04:35.987 Însă nu au intuiție. 0:04:36.011,0:04:39.097 Trebuie să o ia de la început [br]de fiecare dată 0:04:39.121,0:04:41.686 pentru că nu învață niciodată, 0:04:42.368,0:04:44.134 spre deosebire de Maggie. 0:04:44.158,0:04:45.739 (Râsete) 0:04:45.763,0:04:49.060 Maggie e chiar mai inteligentă[br]decât cele mai avansate instrumente. 0:04:49.467,0:04:50.907 Ce vreau să spun prin asta? 0:04:50.931,0:04:52.521 Dacă stăpânul îi ridică lesa, 0:04:52.545,0:04:54.613 Maggie știe destul de cert 0:04:54.637,0:04:56.041 că e timpul pentru plimbare. 0:04:56.065,0:04:57.250 Cum a învățat? 0:04:57.274,0:05:00.598 De fiecare dată când stăpânul a luat lesa[br]au mers la plimbare. 0:05:00.622,0:05:02.500 Maggie a făcut 3 lucruri: 0:05:02.524,0:05:04.393 a trebuit să fie atentă, 0:05:04.417,0:05:06.499 să își amintească ce s-a întâmplat 0:05:06.523,0:05:10.540 și să rețină și să recreeze[br]un model în minte. 0:05:11.429,0:05:15.104 Interesant e că exact asta[br]au încercat cercetătorii 0:05:15.104,0:05:17.971 să facă cu IA în ultimii 60 de ani. 0:05:18.683,0:05:20.032 În 1952, 0:05:20.056,0:05:23.857 au construit acest computer[br]care putea să joace X și 0. 0:05:25.081,0:05:26.241 Mare lucru. 0:05:27.029,0:05:30.029 După 45 de ani, în 1997, 0:05:30.053,0:05:32.525 Deep Blue îl bate pe Kasparov la șah. 0:05:34.046,0:05:39.014 În 2011, Watson îi bate pe acești[br]doi oameni la Jeopardy, 0:05:39.038,0:05:41.966 care e mai greu de jucat decât șahul [br]pentru un computer. 0:05:41.990,0:05:45.802 De fapt, în loc să folosească [br]algoritmi predefiniți, 0:05:45.826,0:05:49.149 Watson a trebuit să gândească [br]pentru a-și bate adversarii umani. 0:05:50.393,0:05:52.832 Acum câteva săptămâni, 0:05:52.856,0:05:57.118 AlphaGo din Deep Mind l-a bătut [br]pe cel mai bun jucător uman la Go,[br] 0:05:57.142,0:05:59.354 care e cel mai greu joc[br]pe care îl avem. 0:05:59.378,0:06:02.274 În Go sunt mai multe mutări posibile 0:06:02.298,0:06:04.322 decât atomi în univers. 0:06:06.210,0:06:08.036 Ca să câștige, 0:06:08.060,0:06:10.678 AlphaGo a trebuit[br]să își dezvolte intuiție. 0:06:11.098,0:06:12.592 În realitate, 0:06:12.592,0:06:17.518 programatorii AlphaGo nu au înțeles[br]de ce AlphaGo făcea ce făcea. 0:06:19.451,0:06:21.111 Lucrurile se mișcă foarte repede. 0:06:21.135,0:06:24.362 Gândiți-vă:[br]în contextul unei vieți umane, 0:06:24.386,0:06:26.619 computerele au ajuns[br]de la mintea unui copil 0:06:27.920,0:06:30.968 la ceea ce numim[br]apogeul gândirii strategice. 0:06:31.999,0:06:34.416 Practic, 0:06:34.440,0:06:37.750 computerele evoluează de la Spock 0:06:37.774,0:06:39.723 la a fi ca Kirk. 0:06:39.747,0:06:43.365 (Râsete) 0:06:43.389,0:06:46.813 Nu? De la logică pură la intuiție. 0:06:48.184,0:06:49.927 Ați trece acest pod? 0:06:50.609,0:06:52.932 Mulți dintre dumneavoastră[br]ar spune „Oh nu!” 0:06:52.956,0:06:54.264 (Râsete) 0:06:54.288,0:06:56.945 Ați ajuns la această[br]decizie într-un moment. 0:06:56.969,0:06:59.397 Cumva ați știut că podul este nesigur. 0:06:59.421,0:07:01.410 E exact genul de intuiție 0:07:01.434,0:07:05.002 pe care sistemele noastre[br]de învățare încep să îl folosească. 0:07:05.722,0:07:07.429 Foarte curând, veți fi capabili 0:07:07.453,0:07:10.799 să îi arătați unui computer[br]ceva ce ați creat 0:07:10.860,0:07:12.349 și el să vă răspundă 0:07:12.373,0:07:15.196 „Îmi pare rău, omule, nu va funcționa.[br]Mai încearcă.” 0:07:15.854,0:07:19.264 Sau l-ați putea întreba dacă oamenilor[br]le va plăcea următorul tău cântec 0:07:19.773,0:07:21.836 sau următoarea ta aromă[br]de înghețată. 0:07:23.549,0:07:26.128 Sau, mult mai important, 0:07:26.152,0:07:28.606 ați putea lucra cu un calculator[br]la o problemă 0:07:28.606,0:07:30.177 care încă nu are soluție. 0:07:30.201,0:07:31.602 Ca încălzirea globală. 0:07:31.626,0:07:33.646 Nu facem o treabă prea bună singuri. 0:07:33.670,0:07:35.915 Am putea folosi orice ajutor am primi. 0:07:35.939,0:07:37.397 Despre asta vorbesc, 0:07:37.421,0:07:39.976 tehnologia ne mărește[br]abilitățile cognitive 0:07:40.000,0:07:43.552 ca să putem imagina și crea [br]lucruri care nu ne sunt la îndemână 0:07:43.576,0:07:46.135 ca simpli oameni vechi și neevoluați. 0:07:47.984,0:07:50.925 Cum ar fi să facem[br]toate aceste lucruri noi 0:07:50.949,0:07:53.390 pe care le vom inventa și proiecta? 0:07:53.952,0:07:58.045 Cred că era dezvoltării umane e la fel[br]de mult despre lumea fizică[br] 0:07:58.069,0:08:01.134 cât despre cea virtuală,[br]domeniul intelectual. 0:08:01.833,0:08:03.754 Cum ne va dezvolta tehnologia? 0:08:04.261,0:08:06.734 În lumea fizică,[br]sistemele robotizate. 0:08:07.620,0:08:09.356 Cu siguranță există o teamă 0:08:09.380,0:08:11.868 că roboții le vor lua joburile oamenilor, 0:08:11.892,0:08:13.942 ceea ce e adevărat în anumite domenii. 0:08:14.174,0:08:17.052 Dar sunt mult mai interesat de ideea 0:08:17.076,0:08:22.086 ca oamenii și roboții lucrând împreună[br]să se augmenteze reciproc 0:08:22.110,0:08:24.168 și să locuiască într-un nou spațiu. 0:08:24.192,0:08:27.124 În laboratorul nostru de cercetare aplicată[br]din San Francisco, 0:08:27.124,0:08:29.720 unul din domeniile pe care ne axăm[br]e robotica avansată, 0:08:29.744,0:08:32.255 în special colaborarea om-robot. 0:08:33.034,0:08:35.793 Acesta e Bishop,[br]unul dintre roboții noștri. 0:08:35.817,0:08:37.606 Experimental, l-am setat 0:08:37.630,0:08:41.090 să ajute un lucrător în construcții[br]să facă sarcini repetitive, 0:08:41.984,0:08:46.178 ca făcutul găurilor pentru scurgeri[br]sau întrerupătoarelor în pereți. 0:08:46.202,0:08:48.668 (Râsete) 0:08:49.877,0:08:52.988 Partenerul uman al lui Bishop[br]îi spune ce să facă în engleză[br] 0:08:53.012,0:08:54.317 folosind gesturi simple, 0:08:54.341,0:08:55.788 cum ar vorbi cu un câine, 0:08:55.812,0:08:57.955 iar Bishop execută[br]acele instrucțiuni 0:08:57.979,0:08:59.871 cu precizie perfectă. 0:08:59.895,0:09:02.884 Folosim omul la ce e el bun: 0:09:02.908,0:09:05.241 avertizare, percepție[br]și luarea deciziilor. 0:09:05.265,0:09:07.505 Și folosim robotul[br]la ce e el bun: 0:09:07.529,0:09:09.277 precizie și repetiție. 0:09:10.252,0:09:12.619 Iată alt proiect [br]la care Bishop a contribuit. 0:09:12.643,0:09:15.718 Scopul acestui proiect,[br]pe care l-am numit HIVE, 0:09:15.742,0:09:19.593 a fost să imagineze experiența oamenilor, [br]computerelor și roboților[br] 0:09:19.617,0:09:22.837 toți lucrând împreună să rezolve[br]o problemă complexă de design. 0:09:23.793,0:09:25.434 Oamenii au acționat ca lucrători. 0:09:25.434,0:09:28.741 Au navigat pe un site de construcții,[br]au lucrat cu bambusul, 0:09:28.765,0:09:31.521 care fiind un material non-izomorf, 0:09:31.545,0:09:33.419 e greu de manipulat de către roboți. 0:09:33.443,0:09:35.465 Dar apoi roboții au înfășurat firele, 0:09:35.489,0:09:37.940 lucru aproapre imposibl pentru oameni. 0:09:37.964,0:09:41.585 Apoi am avut IA care a controlat totul. 0:09:41.609,0:09:44.899 Le spunea oamenilor și roboților[br]ce să facă 0:09:44.923,0:09:47.838 și ținea evidența miilor de componente. 0:09:47.862,0:09:49.042 Interesant e că, 0:09:49.066,0:09:52.207 construirea acestui pavilion[br]era pur și simplu imposibil 0:09:52.231,0:09:56.755 fără om, robot și IA,[br]ajutându-se reciproc. 0:09:57.890,0:10:01.210 Vă mai împărtășesc un proiect.[br]Ăsta e puțin nebunesc. 0:10:01.234,0:10:05.702 Lucrăm cu artistul din Amsterdam,[br]Joris Laarman și cu echipa lui la MX3D 0:10:05.726,0:10:08.604 să creăm și să printăm robotizat 0:10:08.628,0:10:11.623 primul pod din lume făcut autonom. 0:10:12.315,0:10:16.000 Joris și un IA creează acest lucru acum,[br]în timp ce vorbim, 0:10:16.024,0:10:17.196 în Amsterdam. 0:10:17.220,0:10:19.541 Când vor termina, vom apăsa GO 0:10:19.565,0:10:22.876 și roboții vor printa 3D[br]în oțel inoxidabil, 0:10:22.900,0:10:26.183 fără ajutor omenesc, 0:10:26.207,0:10:27.765 până ce podul e gata. 0:10:29.099,0:10:32.027 În timp ce computerele [br]ne vor crește abilitatea 0:10:32.051,0:10:34.201 de a ne imagina și de a crea[br]noi lucruri, 0:10:34.225,0:10:37.120 sistemele robotizate ne vor ajuta[br]să construim 0:10:37.144,0:10:39.228 lucruri pe care înainte nu le puteam face. 0:10:40.347,0:10:44.507 Dar abilitatea noastră [br]de a simți și controla aceste lucruri? 0:10:44.531,0:10:48.562 Dar un sistem nervos[br]pentru lucrurile pe care le facem? 0:10:48.586,0:10:51.098 Sistemul nostru nervos,[br]sistemul nervos uman, 0:10:51.122,0:10:53.433 ne spune tot ce se întâmplă în jur. 0:10:54.186,0:10:57.870 Dar sistemul nervos al lucrurilor[br]pe care le facem e rudimentar. 0:10:57.894,0:11:01.457 De exemplu, o mașină nu îi spune[br]departamentului de lucrări publice 0:11:01.481,0:11:04.611 că a luat o groapă la colțul[br]dintre Broadway și Morrison. 0:11:04.635,0:11:06.667 O clădire nu le spune proiectanților 0:11:06.691,0:11:09.375 dacă oamenilor dinăuntru le place acolo 0:11:09.399,0:11:12.409 și producătorul unei jucării nu știe 0:11:12.433,0:11:14.440 dacă cineva se joacă cu ea, 0:11:14.464,0:11:17.003 cum și unde sau dacă[br]e distractivă sau nu. 0:11:17.620,0:11:21.434 Sunt sigur că designerii și-au imaginat[br]acest stil de viață pentru Barbie 0:11:21.458,0:11:22.682 când au gândit-o. 0:11:22.706,0:11:24.153 (Râsete) 0:11:24.177,0:11:27.083 Dar dacă de fapt Barbie [br]e foarte singură? 0:11:27.107,0:11:30.254 (Râsete) 0:11:31.266,0:11:32.554 Dacă designerii ar fi știut 0:11:32.578,0:11:35.255 ce se întâmplă cu adevărat[br]în lumea reală cu ce au creat 0:11:35.255,0:11:37.292 – drumul, clădirea, Barbie – 0:11:37.316,0:11:40.004 ar fi putut folosi informația[br]pentru a crea o experiență 0:11:40.004,0:11:41.644 mai bună pentru utilizator. 0:11:41.644,0:11:43.809 Lipsește un sistem nervos[br]să ne conecteze 0:11:43.809,0:11:47.132 cu lucrurile pe care le proiectăm,[br]construim și folosim. 0:11:47.915,0:11:51.470 Dacă toți ați avea acel gen [br]de informație venind la voi[br] 0:11:51.494,0:11:53.827 de la lucrurile pe care le creați[br]în lumea reală? 0:11:55.432,0:11:56.883 Pentru tot ce facem, 0:11:56.907,0:11:59.342 folosim o cantitate enormă [br]de bani și energie 0:11:59.366,0:12:01.802 – anul trecut,[br]cam două trilioane de dolari – 0:12:01.802,0:12:04.620 convingând oameni[br]să cumpere ce am făcut. 0:12:04.644,0:12:08.032 Dar dacă ați avea această conexiune[br]cu ce proiectați și creați 0:12:08.056,0:12:09.783 după ce ies în lumea reală, 0:12:09.807,0:12:13.421 după ce sunt vândute sau lansate, 0:12:13.445,0:12:15.065 am putea schimba acest lucru, 0:12:15.089,0:12:18.136 pentru a merge de la ideea[br]ca oamenii să ne vrea lucrurile 0:12:18.160,0:12:21.594 la a face lucruri[br]pe care oamenii să le vrea. 0:12:21.618,0:12:24.405 Vestea bună e că lucrăm[br]la un sistem nervos digital 0:12:24.429,0:12:27.230 care să ne conecteze cu lucrurile[br]pe care le creăm. 0:12:28.365,0:12:29.992 Lucrăm la un proiect[br] 0:12:30.016,0:12:33.728 cu niște băieți din LA[br]numiți Bandito Brothers 0:12:33.752,0:12:35.159 și cu echipa lor. 0:12:35.183,0:12:38.616 Unul din lucrurile pe care le fac ei[br]este să facă mașini uluitoare 0:12:38.640,0:12:41.513 care fac lucruri uluitoare. 0:12:42.905,0:12:44.355 Băieții ăștia sunt nebuni. 0:12:44.379,0:12:45.415 (Râsete) 0:12:45.439,0:12:46.842 În sensul bun. 0:12:48.993,0:12:50.756 Împreună cu ei, 0:12:50.780,0:12:53.380 luăm un șasiu de la o mașină [br]de curse tradițională 0:12:53.380,0:12:54.979 și să îi oferim un sistem nervos. 0:12:54.979,0:12:57.911 Așa că am echipat-o cu zeci de senzori, 0:12:57.935,0:13:00.570 i-am pus un șofer[br]de clasă mondială la volan 0:13:00.594,0:13:03.951 am scos-o în deșert[br]și am condus-o nebunește o săptămână. 0:13:03.975,0:13:06.466 Și sistemul nervos al mașinii [br]a înregistrat tot 0:13:06.490,0:13:07.972 ce se întâmpla cu mașina. 0:13:07.996,0:13:10.617 Am înregistrat 4 miliarde de măsurători, 0:13:10.641,0:13:12.951 toate forțele la care a fost supusă. 0:13:12.975,0:13:14.634 Apoi am făcut ceva nebunesc. 0:13:15.268,0:13:16.768 Am luat toate datele 0:13:16.792,0:13:20.528 și le-am introdus într-un sistem[br]de design generativ IA numit Dreamcatcher. 0:13:21.270,0:13:25.234 Ce obții când îi dai unui instrument[br]de design un sistem nervos 0:13:25.258,0:13:28.140 și îi ceri să îți construiască[br]cel mai modern model de șasiu? 0:13:28.723,0:13:30.696 Asta. 0:13:32.293,0:13:36.006 E ceva ce un om n-ar fi putut[br]niciodată proiecta. 0:13:36.707,0:13:38.595 Doar că un om a făcut asta, 0:13:38.619,0:13:42.842 dar ajutat de o IA generatoare de design, 0:13:42.842,0:13:44.183 de un sistem nervos digital 0:13:44.207,0:13:47.212 și de roboți care[br]chiar pot fabrica așa ceva. 0:13:47.680,0:13:51.275 Dacă ăsta e viitorul, Era augmentării, 0:13:51.299,0:13:55.560 și vom fi augmentați cognitiv,[br]fizic și perceptiv, 0:13:55.584,0:13:56.992 cum va arăta?[br] 0:13:57.576,0:14:00.897 Cum va fi acest tărâm al minunilor? 0:14:00.921,0:14:02.630 Cred că vom vedea o lume 0:14:02.654,0:14:05.722 unde vom trece de la lucruri fabricate[br] 0:14:05.746,0:14:07.191 la unele crescute. 0:14:08.159,0:14:11.612 Unde vom trece de la lucruri construite[br] 0:14:11.636,0:14:13.340 la cele crescute. 0:14:14.134,0:14:16.322 Vom trece de la a fi izolați 0:14:16.346,0:14:17.956 la a fi conectați. 0:14:18.634,0:14:21.045 Și ne vom îndepărta de origini[br] 0:14:21.069,0:14:22.942 pentru a îmbrățișa agregarea. 0:14:23.967,0:14:27.734 De asemenea cred că ne vom schimba[br]de la a râvni supunerea lucrurilor 0:14:27.758,0:14:29.399 la a le aprecia autonomia. 0:14:30.510,0:14:32.585 Grație posibilităților noastre augmentate, 0:14:32.585,0:14:34.816 lumea se va schimba dramatic. 0:14:35.576,0:14:38.822 Vom avea o lume cu mai multă[br]varietate, conexiune, 0:14:38.846,0:14:41.133 dinamism, complexitate, 0:14:41.157,0:14:43.475 adaptabilitate și desigur 0:14:43.499,0:14:44.716 frumusețe. 0:14:45.231,0:14:46.795 Forma lucrurilor viitoare 0:14:46.819,0:14:49.109 nu va semăna cu ce am văzut înainte. 0:14:49.133,0:14:50.292 De ce? 0:14:50.316,0:14:54.071 Pentru că ce va modela acele lucruri [br]este noul parteneriat 0:14:54.095,0:14:57.765 dintre tehnologie, natură și umanitate. 0:14:59.279,0:15:03.083 Asta, pentru mine, este un viitor[br]spre care merită să privim. 0:15:03.107,0:15:04.378 Vă mulțumesc tuturor. 0:15:04.402,0:15:10.071 (Aplauze)