1 00:00:00,735 --> 00:00:03,024 Câți dintre voi sunteți creatori, 2 00:00:03,048 --> 00:00:06,672 designeri, ingineri, antrepenori, artiști 3 00:00:06,696 --> 00:00:09,083 sau poate doar aveți o imaginație debordantă? 4 00:00:09,107 --> 00:00:10,955 Ridicați mâna. (Aclamații) 5 00:00:10,979 --> 00:00:12,160 Majoritatea. 6 00:00:13,334 --> 00:00:15,628 Am vești pentru noi, cei creativi. 7 00:00:16,714 --> 00:00:19,287 În următorii 20 de ani, 8 00:00:21,471 --> 00:00:24,444 se vor schimba mai multe lucruri în felul în care lucrăm 9 00:00:25,382 --> 00:00:27,539 decât în ultimii 2000 de ani. 10 00:00:28,511 --> 00:00:33,139 De fapt, cred că suntem la răsăritul unei noi ere a istoriei umane. 11 00:00:33,645 --> 00:00:38,406 Până acum au fost 4 mari ere istorice definite de felul în care lucrăm. 12 00:00:39,404 --> 00:00:42,679 Era vânătorilor-culegători a durat câteva milioane de ani. 13 00:00:43,163 --> 00:00:46,739 Apoi Era agricultorilor a durat câteva mii de ani. 14 00:00:47,195 --> 00:00:50,685 Era industrială a durat câteva secole. 15 00:00:50,709 --> 00:00:54,996 Acum, Era informației durează doar de câteva decenii. 16 00:00:55,020 --> 00:01:00,240 În prezent, suntem la apogeul următoarei mari ere ca specie. 17 00:01:01,296 --> 00:01:03,976 Bun venit în Era augmentării. 18 00:01:04,000 --> 00:01:07,693 În această nouă eră, capacitățile naturale de om urmează să fie depășite 19 00:01:07,717 --> 00:01:10,785 de sisteme computaționale care vă ajută să gândiți, 20 00:01:10,809 --> 00:01:12,995 de sisteme robotizate care vă ajută să creați 21 00:01:13,019 --> 00:01:14,667 și de un sistem nervos digital 22 00:01:14,691 --> 00:01:18,381 care vă conectează la lume dincolo de simțurile naturale. 23 00:01:19,437 --> 00:01:21,379 Să începem cu augmentarea cognitivă. 24 00:01:21,403 --> 00:01:23,603 Câți dintre voi sunteți cyborgi evoluați? 25 00:01:24,133 --> 00:01:26,783 (Râsete) 26 00:01:26,807 --> 00:01:29,628 De fapt aș susține faptul că suntem deja evoluați. 27 00:01:30,288 --> 00:01:32,182 Imaginați-vă că sunteți la o petrecere 28 00:01:32,182 --> 00:01:35,336 și cineva vă pune o întrebare la care nu știți răspunsul. 29 00:01:35,360 --> 00:01:39,120 Dacă aveți așa ceva, în câteva secunde ați ști răspunsul. 30 00:01:39,869 --> 00:01:42,168 Acesta este doar un început primitiv. 31 00:01:42,863 --> 00:01:46,194 Chiar și Siri e doar un instrument pasiv. 32 00:01:46,660 --> 00:01:50,041 De fapt, în ultimii 3 milioane și jumătate de ani, 33 00:01:50,065 --> 00:01:53,174 instrumentele pe care le-am avut au fost total pasive. 34 00:01:54,203 --> 00:01:57,858 Fac doar ce le spunem noi și nimic mai mult. 35 00:01:57,882 --> 00:02:00,983 Prima noastră unealtă adevărată tăia doar unde loveam cu ea. 36 00:02:01,822 --> 00:02:04,862 Dalta cioplește doar unde o îndreaptă artistul. 37 00:02:05,343 --> 00:02:10,984 Chiar și cele mai avansate unelte nu fac nimic fără instrucțiuni explicite. 38 00:02:11,008 --> 00:02:14,189 În realitate, și asta este frustrant, 39 00:02:14,213 --> 00:02:15,661 mereu am fost limitați 40 00:02:15,685 --> 00:02:19,186 de nevoia de a ne transpune manual dorințele în unelte, 41 00:02:19,210 --> 00:02:23,737 folosindu-ne efectiv de mâini, chiar și în cazul calculatoarelor. 42 00:02:24,072 --> 00:02:26,535 Eu semăn mai mult cu Scotty din Star Trek. 43 00:02:26,559 --> 00:02:28,409 (Râsete) 44 00:02:28,433 --> 00:02:30,579 Vreau să am o conversație cu un computer. 45 00:02:30,603 --> 00:02:33,573 Vreau să spun: „Calculatorule, hai să proiectăm o mașină”, 46 00:02:33,597 --> 00:02:35,396 iar calculatorul să-mi arate mașina. 47 00:02:35,396 --> 00:02:37,918 Și eu spun: „Să fie mai rapidă, și mai puțin germană.” 48 00:02:37,928 --> 00:02:40,075 și bang, calculatorul să-mi arate o variantă. 49 00:02:40,075 --> 00:02:41,844 (Râsete) 50 00:02:42,208 --> 00:02:44,514 Această conversație poate fi prea avansată, 51 00:02:44,538 --> 00:02:47,203 probabil mai puțin decât credem mulți, 52 00:02:47,227 --> 00:02:48,990 dar chiar acum 53 00:02:49,014 --> 00:02:50,165 lucrăm la asta. 54 00:02:50,189 --> 00:02:54,222 Instrumentele fac acest salt de la a fi pasiv la a fi generativ. 55 00:02:54,831 --> 00:02:58,139 Crearea instrumentelor generative folosește un computer și algoritmi 56 00:02:58,163 --> 00:03:00,771 care să sintetizeze geometria 57 00:03:00,795 --> 00:03:03,549 să vină singură cu noi modele. 58 00:03:03,996 --> 00:03:06,744 Tot ce trebuie sunt obiectivele și restrângerile tale. 59 00:03:06,768 --> 00:03:08,176 Să vă dau un exemplu. 60 00:03:08,200 --> 00:03:10,988 În cazul acesui șasiu de dronă aeriană, 61 00:03:11,012 --> 00:03:13,638 tot ce trebuie să faci e să îi spui ceva ca: 62 00:03:13,662 --> 00:03:14,935 are 4 elice, 63 00:03:14,959 --> 00:03:17,090 o greutate cât mai mică 64 00:03:17,114 --> 00:03:19,384 și să fie eficientă aerodinamic. 65 00:03:19,408 --> 00:03:24,322 Apoi computerul examinează întregul interval de soluții: 66 00:03:24,346 --> 00:03:28,273 fiecare posibilitate care se potrivește criteriilor tale; 67 00:03:28,297 --> 00:03:29,739 sunt milioane. 68 00:03:29,763 --> 00:03:31,738 E nevoie de un computer enorm pentru asta. 69 00:03:31,762 --> 00:03:33,717 Apoi ne arată modele 70 00:03:33,741 --> 00:03:36,884 pe care noi, fără ajutor, nu ni le-am fi putut imagina. 71 00:03:37,326 --> 00:03:40,238 Calculatorul inventează asta singur, 72 00:03:40,262 --> 00:03:41,940 nimeni nu desenează nimic 73 00:03:41,964 --> 00:03:44,050 și începe de la zero. 74 00:03:45,038 --> 00:03:47,425 Apropo, nu accidental 75 00:03:47,449 --> 00:03:50,930 drona arată ca bazinul unei veverițe zburătoare. 76 00:03:51,287 --> 00:03:53,294 (Râsete) 77 00:03:54,040 --> 00:03:56,342 Algoritmii sunt făcuți să funcționeze 78 00:03:56,366 --> 00:03:58,003 la fel ca evoluția. 79 00:03:58,715 --> 00:04:01,375 Interesant e că începem să vedem această tehnologie 80 00:04:01,399 --> 00:04:02,558 în lumea reală. 81 00:04:02,582 --> 00:04:05,034 Am lucrat cu Airbus câțiva ani 82 00:04:05,058 --> 00:04:06,967 la un concept de avion al viitorului. 83 00:04:06,991 --> 00:04:09,061 Încă e un proiect. 84 00:04:09,085 --> 00:04:12,865 Chiar recent am folosit un model generativ de IA 85 00:04:12,889 --> 00:04:14,696 care a venit cu asta. 86 00:04:15,609 --> 00:04:20,762 Aceasta este o cabină printată 3D proiectată de un computer. 87 00:04:20,786 --> 00:04:23,610 E mai bună decât originalul, și cântărește jumătate din el, 88 00:04:23,634 --> 00:04:26,780 și va zbura în Airbus A320 la sfârșitul anului. 89 00:04:27,405 --> 00:04:28,964 Deci computerele pot crea acum. 90 00:04:28,988 --> 00:04:33,583 Pot veni cu propriile soluții la problemele noastre bine definite. 91 00:04:34,677 --> 00:04:35,987 Însă nu au intuiție. 92 00:04:36,011 --> 00:04:39,097 Trebuie să o ia de la început de fiecare dată 93 00:04:39,121 --> 00:04:41,686 pentru că nu învață niciodată, 94 00:04:42,368 --> 00:04:44,134 spre deosebire de Maggie. 95 00:04:44,158 --> 00:04:45,739 (Râsete) 96 00:04:45,763 --> 00:04:49,060 Maggie e chiar mai inteligentă decât cele mai avansate instrumente. 97 00:04:49,467 --> 00:04:50,907 Ce vreau să spun prin asta? 98 00:04:50,931 --> 00:04:52,521 Dacă stăpânul îi ridică lesa, 99 00:04:52,545 --> 00:04:54,613 Maggie știe destul de cert 100 00:04:54,637 --> 00:04:56,041 că e timpul pentru plimbare. 101 00:04:56,065 --> 00:04:57,250 Cum a învățat? 102 00:04:57,274 --> 00:05:00,598 De fiecare dată când stăpânul a luat lesa au mers la plimbare. 103 00:05:00,622 --> 00:05:02,500 Maggie a făcut 3 lucruri: 104 00:05:02,524 --> 00:05:04,393 a trebuit să fie atentă, 105 00:05:04,417 --> 00:05:06,499 să își amintească ce s-a întâmplat 106 00:05:06,523 --> 00:05:10,540 și să rețină și să recreeze un model în minte. 107 00:05:11,429 --> 00:05:15,104 Interesant e că exact asta au încercat cercetătorii 108 00:05:15,104 --> 00:05:17,971 să facă cu IA în ultimii 60 de ani. 109 00:05:18,683 --> 00:05:20,032 În 1952, 110 00:05:20,056 --> 00:05:23,857 au construit acest computer care putea să joace X și 0. 111 00:05:25,081 --> 00:05:26,241 Mare lucru. 112 00:05:27,029 --> 00:05:30,029 După 45 de ani, în 1997, 113 00:05:30,053 --> 00:05:32,525 Deep Blue îl bate pe Kasparov la șah. 114 00:05:34,046 --> 00:05:39,014 În 2011, Watson îi bate pe acești doi oameni la Jeopardy, 115 00:05:39,038 --> 00:05:41,966 care e mai greu de jucat decât șahul pentru un computer. 116 00:05:41,990 --> 00:05:45,802 De fapt, în loc să folosească algoritmi predefiniți, 117 00:05:45,826 --> 00:05:49,149 Watson a trebuit să gândească pentru a-și bate adversarii umani. 118 00:05:50,393 --> 00:05:52,832 Acum câteva săptămâni, 119 00:05:52,856 --> 00:05:57,118 AlphaGo din Deep Mind l-a bătut pe cel mai bun jucător uman la Go, 120 00:05:57,142 --> 00:05:59,354 care e cel mai greu joc pe care îl avem. 121 00:05:59,378 --> 00:06:02,274 În Go sunt mai multe mutări posibile 122 00:06:02,298 --> 00:06:04,322 decât atomi în univers. 123 00:06:06,210 --> 00:06:08,036 Ca să câștige, 124 00:06:08,060 --> 00:06:10,678 AlphaGo a trebuit să își dezvolte intuiție. 125 00:06:11,098 --> 00:06:12,592 În realitate, 126 00:06:12,592 --> 00:06:17,518 programatorii AlphaGo nu au înțeles de ce AlphaGo făcea ce făcea. 127 00:06:19,451 --> 00:06:21,111 Lucrurile se mișcă foarte repede. 128 00:06:21,135 --> 00:06:24,362 Gândiți-vă: în contextul unei vieți umane, 129 00:06:24,386 --> 00:06:26,619 computerele au ajuns de la mintea unui copil 130 00:06:27,920 --> 00:06:30,968 la ceea ce numim apogeul gândirii strategice. 131 00:06:31,999 --> 00:06:34,416 Practic, 132 00:06:34,440 --> 00:06:37,750 computerele evoluează de la Spock 133 00:06:37,774 --> 00:06:39,723 la a fi ca Kirk. 134 00:06:39,747 --> 00:06:43,365 (Râsete) 135 00:06:43,389 --> 00:06:46,813 Nu? De la logică pură la intuiție. 136 00:06:48,184 --> 00:06:49,927 Ați trece acest pod? 137 00:06:50,609 --> 00:06:52,932 Mulți dintre dumneavoastră ar spune „Oh nu!” 138 00:06:52,956 --> 00:06:54,264 (Râsete) 139 00:06:54,288 --> 00:06:56,945 Ați ajuns la această decizie într-un moment. 140 00:06:56,969 --> 00:06:59,397 Cumva ați știut că podul este nesigur. 141 00:06:59,421 --> 00:07:01,410 E exact genul de intuiție 142 00:07:01,434 --> 00:07:05,002 pe care sistemele noastre de învățare încep să îl folosească. 143 00:07:05,722 --> 00:07:07,429 Foarte curând, veți fi capabili 144 00:07:07,453 --> 00:07:10,799 să îi arătați unui computer ceva ce ați creat 145 00:07:10,860 --> 00:07:12,349 și el să vă răspundă 146 00:07:12,373 --> 00:07:15,196 „Îmi pare rău, omule, nu va funcționa. Mai încearcă.” 147 00:07:15,854 --> 00:07:19,264 Sau l-ați putea întreba dacă oamenilor le va plăcea următorul tău cântec 148 00:07:19,773 --> 00:07:21,836 sau următoarea ta aromă de înghețată. 149 00:07:23,549 --> 00:07:26,128 Sau, mult mai important, 150 00:07:26,152 --> 00:07:28,606 ați putea lucra cu un calculator la o problemă 151 00:07:28,606 --> 00:07:30,177 care încă nu are soluție. 152 00:07:30,201 --> 00:07:31,602 Ca încălzirea globală. 153 00:07:31,626 --> 00:07:33,646 Nu facem o treabă prea bună singuri. 154 00:07:33,670 --> 00:07:35,915 Am putea folosi orice ajutor am primi. 155 00:07:35,939 --> 00:07:37,397 Despre asta vorbesc, 156 00:07:37,421 --> 00:07:39,976 tehnologia ne mărește abilitățile cognitive 157 00:07:40,000 --> 00:07:43,552 ca să putem imagina și crea lucruri care nu ne sunt la îndemână 158 00:07:43,576 --> 00:07:46,135 ca simpli oameni vechi și neevoluați. 159 00:07:47,984 --> 00:07:50,925 Cum ar fi să facem toate aceste lucruri noi 160 00:07:50,949 --> 00:07:53,390 pe care le vom inventa și proiecta? 161 00:07:53,952 --> 00:07:58,045 Cred că era dezvoltării umane e la fel de mult despre lumea fizică 162 00:07:58,069 --> 00:08:01,134 cât despre cea virtuală, domeniul intelectual. 163 00:08:01,833 --> 00:08:03,754 Cum ne va dezvolta tehnologia? 164 00:08:04,261 --> 00:08:06,734 În lumea fizică, sistemele robotizate. 165 00:08:07,620 --> 00:08:09,356 Cu siguranță există o teamă 166 00:08:09,380 --> 00:08:11,868 că roboții le vor lua joburile oamenilor, 167 00:08:11,892 --> 00:08:13,942 ceea ce e adevărat în anumite domenii. 168 00:08:14,174 --> 00:08:17,052 Dar sunt mult mai interesat de ideea 169 00:08:17,076 --> 00:08:22,086 ca oamenii și roboții lucrând împreună să se augmenteze reciproc 170 00:08:22,110 --> 00:08:24,168 și să locuiască într-un nou spațiu. 171 00:08:24,192 --> 00:08:27,124 În laboratorul nostru de cercetare aplicată din San Francisco, 172 00:08:27,124 --> 00:08:29,720 unul din domeniile pe care ne axăm e robotica avansată, 173 00:08:29,744 --> 00:08:32,255 în special colaborarea om-robot. 174 00:08:33,034 --> 00:08:35,793 Acesta e Bishop, unul dintre roboții noștri. 175 00:08:35,817 --> 00:08:37,606 Experimental, l-am setat 176 00:08:37,630 --> 00:08:41,090 să ajute un lucrător în construcții să facă sarcini repetitive, 177 00:08:41,984 --> 00:08:46,178 ca făcutul găurilor pentru scurgeri sau întrerupătoarelor în pereți. 178 00:08:46,202 --> 00:08:48,668 (Râsete) 179 00:08:49,877 --> 00:08:52,988 Partenerul uman al lui Bishop îi spune ce să facă în engleză 180 00:08:53,012 --> 00:08:54,317 folosind gesturi simple, 181 00:08:54,341 --> 00:08:55,788 cum ar vorbi cu un câine, 182 00:08:55,812 --> 00:08:57,955 iar Bishop execută acele instrucțiuni 183 00:08:57,979 --> 00:08:59,871 cu precizie perfectă. 184 00:08:59,895 --> 00:09:02,884 Folosim omul la ce e el bun: 185 00:09:02,908 --> 00:09:05,241 avertizare, percepție și luarea deciziilor. 186 00:09:05,265 --> 00:09:07,505 Și folosim robotul la ce e el bun: 187 00:09:07,529 --> 00:09:09,277 precizie și repetiție. 188 00:09:10,252 --> 00:09:12,619 Iată alt proiect la care Bishop a contribuit. 189 00:09:12,643 --> 00:09:15,718 Scopul acestui proiect, pe care l-am numit HIVE, 190 00:09:15,742 --> 00:09:19,593 a fost să imagineze experiența oamenilor, computerelor și roboților 191 00:09:19,617 --> 00:09:22,837 toți lucrând împreună să rezolve o problemă complexă de design. 192 00:09:23,793 --> 00:09:25,434 Oamenii au acționat ca lucrători. 193 00:09:25,434 --> 00:09:28,741 Au navigat pe un site de construcții, au lucrat cu bambusul, 194 00:09:28,765 --> 00:09:31,521 care fiind un material non-izomorf, 195 00:09:31,545 --> 00:09:33,419 e greu de manipulat de către roboți. 196 00:09:33,443 --> 00:09:35,465 Dar apoi roboții au înfășurat firele, 197 00:09:35,489 --> 00:09:37,940 lucru aproapre imposibl pentru oameni. 198 00:09:37,964 --> 00:09:41,585 Apoi am avut IA care a controlat totul. 199 00:09:41,609 --> 00:09:44,899 Le spunea oamenilor și roboților ce să facă 200 00:09:44,923 --> 00:09:47,838 și ținea evidența miilor de componente. 201 00:09:47,862 --> 00:09:49,042 Interesant e că, 202 00:09:49,066 --> 00:09:52,207 construirea acestui pavilion era pur și simplu imposibil 203 00:09:52,231 --> 00:09:56,755 fără om, robot și IA, ajutându-se reciproc. 204 00:09:57,890 --> 00:10:01,210 Vă mai împărtășesc un proiect. Ăsta e puțin nebunesc. 205 00:10:01,234 --> 00:10:05,702 Lucrăm cu artistul din Amsterdam, Joris Laarman și cu echipa lui la MX3D 206 00:10:05,726 --> 00:10:08,604 să creăm și să printăm robotizat 207 00:10:08,628 --> 00:10:11,623 primul pod din lume făcut autonom. 208 00:10:12,315 --> 00:10:16,000 Joris și un IA creează acest lucru acum, în timp ce vorbim, 209 00:10:16,024 --> 00:10:17,196 în Amsterdam. 210 00:10:17,220 --> 00:10:19,541 Când vor termina, vom apăsa GO 211 00:10:19,565 --> 00:10:22,876 și roboții vor printa 3D în oțel inoxidabil, 212 00:10:22,900 --> 00:10:26,183 fără ajutor omenesc, 213 00:10:26,207 --> 00:10:27,765 până ce podul e gata. 214 00:10:29,099 --> 00:10:32,027 În timp ce computerele ne vor crește abilitatea 215 00:10:32,051 --> 00:10:34,201 de a ne imagina și de a crea noi lucruri, 216 00:10:34,225 --> 00:10:37,120 sistemele robotizate ne vor ajuta să construim 217 00:10:37,144 --> 00:10:39,228 lucruri pe care înainte nu le puteam face. 218 00:10:40,347 --> 00:10:44,507 Dar abilitatea noastră de a simți și controla aceste lucruri? 219 00:10:44,531 --> 00:10:48,562 Dar un sistem nervos pentru lucrurile pe care le facem? 220 00:10:48,586 --> 00:10:51,098 Sistemul nostru nervos, sistemul nervos uman, 221 00:10:51,122 --> 00:10:53,433 ne spune tot ce se întâmplă în jur. 222 00:10:54,186 --> 00:10:57,870 Dar sistemul nervos al lucrurilor pe care le facem e rudimentar. 223 00:10:57,894 --> 00:11:01,457 De exemplu, o mașină nu îi spune departamentului de lucrări publice 224 00:11:01,481 --> 00:11:04,611 că a luat o groapă la colțul dintre Broadway și Morrison. 225 00:11:04,635 --> 00:11:06,667 O clădire nu le spune proiectanților 226 00:11:06,691 --> 00:11:09,375 dacă oamenilor dinăuntru le place acolo 227 00:11:09,399 --> 00:11:12,409 și producătorul unei jucării nu știe 228 00:11:12,433 --> 00:11:14,440 dacă cineva se joacă cu ea, 229 00:11:14,464 --> 00:11:17,003 cum și unde sau dacă e distractivă sau nu. 230 00:11:17,620 --> 00:11:21,434 Sunt sigur că designerii și-au imaginat acest stil de viață pentru Barbie 231 00:11:21,458 --> 00:11:22,682 când au gândit-o. 232 00:11:22,706 --> 00:11:24,153 (Râsete) 233 00:11:24,177 --> 00:11:27,083 Dar dacă de fapt Barbie e foarte singură? 234 00:11:27,107 --> 00:11:30,254 (Râsete) 235 00:11:31,266 --> 00:11:32,554 Dacă designerii ar fi știut 236 00:11:32,578 --> 00:11:35,255 ce se întâmplă cu adevărat în lumea reală cu ce au creat 237 00:11:35,255 --> 00:11:37,292 – drumul, clădirea, Barbie – 238 00:11:37,316 --> 00:11:40,004 ar fi putut folosi informația pentru a crea o experiență 239 00:11:40,004 --> 00:11:41,644 mai bună pentru utilizator. 240 00:11:41,644 --> 00:11:43,809 Lipsește un sistem nervos să ne conecteze 241 00:11:43,809 --> 00:11:47,132 cu lucrurile pe care le proiectăm, construim și folosim. 242 00:11:47,915 --> 00:11:51,470 Dacă toți ați avea acel gen de informație venind la voi 243 00:11:51,494 --> 00:11:53,827 de la lucrurile pe care le creați în lumea reală? 244 00:11:55,432 --> 00:11:56,883 Pentru tot ce facem, 245 00:11:56,907 --> 00:11:59,342 folosim o cantitate enormă de bani și energie 246 00:11:59,366 --> 00:12:01,802 – anul trecut, cam două trilioane de dolari – 247 00:12:01,802 --> 00:12:04,620 convingând oameni să cumpere ce am făcut. 248 00:12:04,644 --> 00:12:08,032 Dar dacă ați avea această conexiune cu ce proiectați și creați 249 00:12:08,056 --> 00:12:09,783 după ce ies în lumea reală, 250 00:12:09,807 --> 00:12:13,421 după ce sunt vândute sau lansate, 251 00:12:13,445 --> 00:12:15,065 am putea schimba acest lucru, 252 00:12:15,089 --> 00:12:18,136 pentru a merge de la ideea ca oamenii să ne vrea lucrurile 253 00:12:18,160 --> 00:12:21,594 la a face lucruri pe care oamenii să le vrea. 254 00:12:21,618 --> 00:12:24,405 Vestea bună e că lucrăm la un sistem nervos digital 255 00:12:24,429 --> 00:12:27,230 care să ne conecteze cu lucrurile pe care le creăm. 256 00:12:28,365 --> 00:12:29,992 Lucrăm la un proiect 257 00:12:30,016 --> 00:12:33,728 cu niște băieți din LA numiți Bandito Brothers 258 00:12:33,752 --> 00:12:35,159 și cu echipa lor. 259 00:12:35,183 --> 00:12:38,616 Unul din lucrurile pe care le fac ei este să facă mașini uluitoare 260 00:12:38,640 --> 00:12:41,513 care fac lucruri uluitoare. 261 00:12:42,905 --> 00:12:44,355 Băieții ăștia sunt nebuni. 262 00:12:44,379 --> 00:12:45,415 (Râsete) 263 00:12:45,439 --> 00:12:46,842 În sensul bun. 264 00:12:48,993 --> 00:12:50,756 Împreună cu ei, 265 00:12:50,780 --> 00:12:53,380 luăm un șasiu de la o mașină de curse tradițională 266 00:12:53,380 --> 00:12:54,979 și să îi oferim un sistem nervos. 267 00:12:54,979 --> 00:12:57,911 Așa că am echipat-o cu zeci de senzori, 268 00:12:57,935 --> 00:13:00,570 i-am pus un șofer de clasă mondială la volan 269 00:13:00,594 --> 00:13:03,951 am scos-o în deșert și am condus-o nebunește o săptămână. 270 00:13:03,975 --> 00:13:06,466 Și sistemul nervos al mașinii a înregistrat tot 271 00:13:06,490 --> 00:13:07,972 ce se întâmpla cu mașina. 272 00:13:07,996 --> 00:13:10,617 Am înregistrat 4 miliarde de măsurători, 273 00:13:10,641 --> 00:13:12,951 toate forțele la care a fost supusă. 274 00:13:12,975 --> 00:13:14,634 Apoi am făcut ceva nebunesc. 275 00:13:15,268 --> 00:13:16,768 Am luat toate datele 276 00:13:16,792 --> 00:13:20,528 și le-am introdus într-un sistem de design generativ IA numit Dreamcatcher. 277 00:13:21,270 --> 00:13:25,234 Ce obții când îi dai unui instrument de design un sistem nervos 278 00:13:25,258 --> 00:13:28,140 și îi ceri să îți construiască cel mai modern model de șasiu? 279 00:13:28,723 --> 00:13:30,696 Asta. 280 00:13:32,293 --> 00:13:36,006 E ceva ce un om n-ar fi putut niciodată proiecta. 281 00:13:36,707 --> 00:13:38,595 Doar că un om a făcut asta, 282 00:13:38,619 --> 00:13:42,842 dar ajutat de o IA generatoare de design, 283 00:13:42,842 --> 00:13:44,183 de un sistem nervos digital 284 00:13:44,207 --> 00:13:47,212 și de roboți care chiar pot fabrica așa ceva. 285 00:13:47,680 --> 00:13:51,275 Dacă ăsta e viitorul, Era augmentării, 286 00:13:51,299 --> 00:13:55,560 și vom fi augmentați cognitiv, fizic și perceptiv, 287 00:13:55,584 --> 00:13:56,992 cum va arăta? 288 00:13:57,576 --> 00:14:00,897 Cum va fi acest tărâm al minunilor? 289 00:14:00,921 --> 00:14:02,630 Cred că vom vedea o lume 290 00:14:02,654 --> 00:14:05,722 unde vom trece de la lucruri fabricate 291 00:14:05,746 --> 00:14:07,191 la unele crescute. 292 00:14:08,159 --> 00:14:11,612 Unde vom trece de la lucruri construite 293 00:14:11,636 --> 00:14:13,340 la cele crescute. 294 00:14:14,134 --> 00:14:16,322 Vom trece de la a fi izolați 295 00:14:16,346 --> 00:14:17,956 la a fi conectați. 296 00:14:18,634 --> 00:14:21,045 Și ne vom îndepărta de origini 297 00:14:21,069 --> 00:14:22,942 pentru a îmbrățișa agregarea. 298 00:14:23,967 --> 00:14:27,734 De asemenea cred că ne vom schimba de la a râvni supunerea lucrurilor 299 00:14:27,758 --> 00:14:29,399 la a le aprecia autonomia. 300 00:14:30,510 --> 00:14:32,585 Grație posibilităților noastre augmentate, 301 00:14:32,585 --> 00:14:34,816 lumea se va schimba dramatic. 302 00:14:35,576 --> 00:14:38,822 Vom avea o lume cu mai multă varietate, conexiune, 303 00:14:38,846 --> 00:14:41,133 dinamism, complexitate, 304 00:14:41,157 --> 00:14:43,475 adaptabilitate și desigur 305 00:14:43,499 --> 00:14:44,716 frumusețe. 306 00:14:45,231 --> 00:14:46,795 Forma lucrurilor viitoare 307 00:14:46,819 --> 00:14:49,109 nu va semăna cu ce am văzut înainte. 308 00:14:49,133 --> 00:14:50,292 De ce? 309 00:14:50,316 --> 00:14:54,071 Pentru că ce va modela acele lucruri este noul parteneriat 310 00:14:54,095 --> 00:14:57,765 dintre tehnologie, natură și umanitate. 311 00:14:59,279 --> 00:15:03,083 Asta, pentru mine, este un viitor spre care merită să privim. 312 00:15:03,107 --> 00:15:04,378 Vă mulțumesc tuturor. 313 00:15:04,402 --> 00:15:10,071 (Aplauze)