1 00:00:10,847 --> 00:00:13,799 Portland, ejha! Köszönöm, hogy ennyien eljöttek. 2 00:00:14,038 --> 00:00:15,498 Szeretek idelátogatni. 3 00:00:15,522 --> 00:00:18,625 Ugyan hol máshol kapnék ilyen reggelit? 4 00:00:18,649 --> 00:00:20,315 (Nevetés) 5 00:00:20,339 --> 00:00:23,632 Ez nagyon kreatív hely. 6 00:00:23,815 --> 00:00:25,111 (Nevetés) 7 00:00:25,135 --> 00:00:27,424 Hányan kreatívok önök közül: 8 00:00:27,448 --> 00:00:31,072 tervezők, mérnökök, vállalkozók, művészek, 9 00:00:31,096 --> 00:00:33,483 vagy csak nagy a képzelőerejük? 10 00:00:33,507 --> 00:00:35,355 Jelentkezzenek! (Ujjongás) 11 00:00:35,379 --> 00:00:36,560 Tehát a többség. 12 00:00:37,734 --> 00:00:40,028 Újdonsággal szolgálhatok nekünk, kreatívoknak. 13 00:00:41,114 --> 00:00:43,687 A következő 20 év folyamán 14 00:00:45,871 --> 00:00:48,844 munkánk nagyobb változáson megy át, 15 00:00:49,782 --> 00:00:51,939 mint az előző 2 000 évben. 16 00:00:52,768 --> 00:00:57,396 Az emberi történelem új korszakának hajnalán járunk. 17 00:00:58,045 --> 00:01:02,624 A munkavégzés alapján négy nagy történelmi korszak létezik. 18 00:01:03,804 --> 00:01:07,079 A vadászó-gyűjtögető korszak néhány millió évig tartott. 19 00:01:07,563 --> 00:01:11,139 Utána a mezőgazdasági korszak néhány ezer évig, 20 00:01:11,405 --> 00:01:14,895 az ipari korszak pedig pár évszázadig tartott. 21 00:01:14,919 --> 00:01:18,728 Az információs korszak csak néhány évtizede tart. 22 00:01:19,230 --> 00:01:24,450 Ma pedig mint faj a következő nagy korszakba lépünk. 23 00:01:25,506 --> 00:01:28,186 Üdvözlök mindenkit a kiterjesztett korban! 24 00:01:28,210 --> 00:01:31,903 Ebben az új korszakban a természetes emberi készségek ki fognak bővülni, 25 00:01:31,927 --> 00:01:34,995 hála a gondolkodást segítő számítástechnikai rendszereknek, 26 00:01:35,119 --> 00:01:37,269 a gyártást megkönnyítő robotrendszereknek, 27 00:01:37,269 --> 00:01:39,027 valamint a digitális idegrendszernek, 28 00:01:39,027 --> 00:01:42,691 amely a természetes érzékeken túlmenően kapcsol minket a környezetünkhöz. 29 00:01:44,947 --> 00:01:46,889 Kezdjük a kognitív kiterjesztéssel! 30 00:01:46,913 --> 00:01:49,113 Hányan vannak itt kiterjesztett kiborgok? 31 00:01:49,270 --> 00:01:51,545 (Nevetés) 32 00:01:51,569 --> 00:01:53,084 Hárman-négyen, 33 00:01:53,108 --> 00:01:54,791 csak mert ez Portland. 34 00:01:54,815 --> 00:01:58,025 (Nevetés) 35 00:01:58,049 --> 00:01:59,651 Igen, Portland természetfölötti. 36 00:01:59,661 --> 00:02:01,543 (Nevetés) 37 00:02:01,567 --> 00:02:04,388 Állítom, hogy már ki vagyunk terjesztve. 38 00:02:05,048 --> 00:02:06,552 Tegyük fel, buliban vannak, 39 00:02:06,576 --> 00:02:10,096 és valaki kérdést tesz föl, amelyre nem tudják a választ. 40 00:02:10,120 --> 00:02:13,880 Ha van egy ilyesmijük, egy szempillantás alatt megvan a válasz. 41 00:02:14,629 --> 00:02:16,928 De ez csak a primitív kezdet. 42 00:02:17,623 --> 00:02:20,954 Még a Siri is csak passzív eszköz. 43 00:02:21,420 --> 00:02:24,801 Az utóbbi 3,5 millió évben használt eszközök 44 00:02:24,825 --> 00:02:28,348 teljesen passzívak voltak. 45 00:02:29,563 --> 00:02:33,218 Csak azt teszik, amit mondunk nekik, és semmi egyebet. 46 00:02:33,242 --> 00:02:36,343 Az első szerszámunk csak azt vágta, amire rácsaptunk vele. 47 00:02:37,382 --> 00:02:40,422 A véső csak ott farag, ahová a szobrász odailleszti. 48 00:02:40,818 --> 00:02:46,544 Legjobb szerszámaink is csak kifejezett utasításunkra tesznek bármit is. 49 00:02:47,598 --> 00:02:50,779 Jelenleg – és ez nagyon zavar – 50 00:02:50,803 --> 00:02:52,251 mindig korlátozva vagyunk, 51 00:02:52,275 --> 00:02:55,776 mert manuálisan kell betáplálnunk akaratunkat a szerszámba, 52 00:02:55,800 --> 00:02:58,097 szó szerint a kezünkkel, 53 00:02:58,121 --> 00:02:59,549 még a számítógépbe is. 54 00:03:00,592 --> 00:03:03,125 De én inkább olyan vagyok, mint Scotty a Star Trekből, 55 00:03:03,149 --> 00:03:04,999 (Nevetés) 56 00:03:05,023 --> 00:03:07,169 mert beszélgetni szeretnék a számítógépemmel, 57 00:03:07,193 --> 00:03:10,163 pl.: "Számítógép, tervezz egy autót!", 58 00:03:10,187 --> 00:03:11,726 erre mutat nekem egy autót. 59 00:03:11,750 --> 00:03:14,358 Én: "Nem, nézzen ki gyorsabbnak és kevésbé németesnek. 60 00:03:14,382 --> 00:03:16,545 És puff, a gép mutat egy változatot. 61 00:03:16,569 --> 00:03:18,434 (Nevetés) 62 00:03:18,798 --> 00:03:21,104 Lehet, hogy a beszélgetés még odébb van, 63 00:03:21,128 --> 00:03:23,793 de kevésbé, mintsem gondolnák, 64 00:03:23,817 --> 00:03:25,580 mert jelenleg 65 00:03:25,604 --> 00:03:26,755 dolgozunk rajta. 66 00:03:26,779 --> 00:03:30,812 A szerszámok adják az ugrás lehetőségét a passzívtól az alkotó felé. 67 00:03:31,421 --> 00:03:36,069 Az alkotó tervezőeszközök számítógépet és algoritmust használnak 68 00:03:36,093 --> 00:03:38,901 a geometria szintetizálására, 69 00:03:38,925 --> 00:03:41,679 hogy maguk álljanak elő új tervekkel. 70 00:03:42,096 --> 00:03:44,874 Csak közölni kell velük céljainkat, és kikötéseinket. 71 00:03:44,898 --> 00:03:46,306 Példát mondok. 72 00:03:46,330 --> 00:03:49,118 E drón vázának elkészítéséhez 73 00:03:49,142 --> 00:03:51,768 csak annyi kell, hogy valami ilyesmit mondjunk: 74 00:03:51,792 --> 00:03:53,065 négy légcsavarja van, 75 00:03:53,089 --> 00:03:55,220 a lehető legkönnyebb legyen, 76 00:03:55,244 --> 00:03:57,514 és aerodinamikailag hatékony legyen. 77 00:03:57,538 --> 00:04:02,452 Ekkor a gép végigvizsgálja az összes megoldás tárházát: 78 00:04:02,476 --> 00:04:06,403 kritériumainkat kielégítő minden egyes lehetőséget, 79 00:04:06,427 --> 00:04:07,869 azt a sokmilliónyit. 80 00:04:07,893 --> 00:04:09,868 Ehhez nagyszámítógép kell. 81 00:04:09,892 --> 00:04:11,847 De a gép jelentkezik a tervvel, 82 00:04:11,871 --> 00:04:15,014 amelyet mi magunk el sem tudtunk képzelni. 83 00:04:15,456 --> 00:04:18,368 A gép magától hozza elő a tervet, 84 00:04:18,392 --> 00:04:20,070 senki semmit sem rajzolt, 85 00:04:20,094 --> 00:04:22,180 az egészet a nulláról kezdte. 86 00:04:23,168 --> 00:04:25,555 Egyébként nem véletlen, 87 00:04:25,579 --> 00:04:29,060 hogy a drón váza olyan, mint a repülő mókus medencecsontja. 88 00:04:29,231 --> 00:04:32,146 (Nevetés) 89 00:04:32,170 --> 00:04:34,472 Azért, mert az algoritmust úgy tervezték, 90 00:04:34,496 --> 00:04:36,133 ahogy az evolúció működik. 91 00:04:37,045 --> 00:04:39,705 Pompás dolog, hogy ezt a technológiát 92 00:04:39,729 --> 00:04:40,888 a valóságban is látjuk. 93 00:04:40,912 --> 00:04:43,364 Több éve dolgozunk az Airbusszal 94 00:04:43,388 --> 00:04:45,297 a repülőgép forradalmasításán. 95 00:04:45,321 --> 00:04:47,391 Még messze vagyunk tőle. 96 00:04:47,415 --> 00:04:51,195 De nemrég alkotó mesterséges értelmet alkalmaztunk, 97 00:04:51,219 --> 00:04:53,026 hogy megbirkózzunk a feladattal. 98 00:04:53,939 --> 00:04:59,092 Ez 3D-ben nyomtatott kabinválaszfal, amelyet számítógép tervezett. 99 00:04:59,116 --> 00:05:01,940 Erősebb, mint az eredeti, de a súlya feleannyi. 100 00:05:01,964 --> 00:05:05,110 Még idén útjára indul az Airbus A320-ban. 101 00:05:06,835 --> 00:05:09,024 Ma a számítógépek képesek alkotni, 102 00:05:09,048 --> 00:05:13,643 s a jól definiált feladatokra saját megoldásokat javasolnak. 103 00:05:14,737 --> 00:05:16,047 De nem találékonyak. 104 00:05:16,071 --> 00:05:19,157 Mindig a nulláról kell kezdeniük, 105 00:05:19,181 --> 00:05:21,871 és ez azért van, mert nem tanulékonyak. 106 00:05:22,768 --> 00:05:24,534 Akárcsak Maggie. 107 00:05:24,558 --> 00:05:26,139 (Nevetés) 108 00:05:26,163 --> 00:05:29,460 Bár Maggie sok fejlett tervezőeszköznél okosabb. 109 00:05:29,867 --> 00:05:31,367 Hogy mit értek ezen? 110 00:05:31,391 --> 00:05:32,981 Ha a gazdája veszi a pórázt, 111 00:05:33,005 --> 00:05:35,073 Maggie elég biztosan tudja, 112 00:05:35,097 --> 00:05:36,501 hogy ideje van a sétának. 113 00:05:36,525 --> 00:05:37,710 Miből tanulta meg? 114 00:05:37,734 --> 00:05:41,058 Ebből: ahányszor a gazdi vette a pórázt, séta következett. 115 00:05:41,082 --> 00:05:42,960 Maggienek három dolgot kellett tennie: 116 00:05:42,984 --> 00:05:44,853 figyelnie, 117 00:05:44,877 --> 00:05:46,959 emlékeznie, mi történt, 118 00:05:46,983 --> 00:05:51,000 és elméjében mintázatot alkotnia. 119 00:05:51,459 --> 00:05:53,984 Érdekes, hogy az informatikusok pont ezek alapján 120 00:05:54,008 --> 00:05:56,741 alkották meg az automatikus repülőgép-leszállórendszert 121 00:05:56,741 --> 00:05:58,414 az elmúlt hat évtizedben. 122 00:05:59,783 --> 00:06:01,132 1952-ben megépítették 123 00:06:01,156 --> 00:06:04,957 ezt a gépet, amely tud "ix-ox" játékot játszani. 124 00:06:06,181 --> 00:06:07,341 Nem semmi. 125 00:06:08,129 --> 00:06:11,129 Aztán 45 évvel később,1997-ben 126 00:06:11,153 --> 00:06:13,625 a Deep Blue legyőzi sakkban Kaszparovot. 127 00:06:15,146 --> 00:06:20,114 2011-ben a Watson két embert győzött le a "Mindent vagy semmit" kvízjátékban, 128 00:06:20,138 --> 00:06:23,066 ami a számítógépnek nehezebb, mint sakkozni. 129 00:06:23,090 --> 00:06:26,902 Kész receptek helyett a Watsonnak az eszét kellett használnia, 130 00:06:26,926 --> 00:06:30,249 hogy legyőzze emberi ellenfelét. 131 00:06:31,493 --> 00:06:33,932 Majd pár héttel ezelőtt 132 00:06:33,956 --> 00:06:38,218 a DeepMind AlphaGo programja legyőzte a gó világbajnokát. 133 00:06:38,242 --> 00:06:40,454 A gó a legbonyolultabb játék. 134 00:06:40,478 --> 00:06:43,974 A góban több a lépésváltozat, 135 00:06:43,998 --> 00:06:46,022 mint ahány atom az univerzumban. 136 00:06:47,910 --> 00:06:49,736 Úgyhogy az Alphagónak a győzelemhez 137 00:06:49,760 --> 00:06:52,774 fejlesztenie kellett a találékonyságát. 138 00:06:52,798 --> 00:06:56,908 Néha a programozói sem értették, 139 00:06:56,932 --> 00:06:59,218 mit miért csinál. 140 00:07:01,151 --> 00:07:02,811 Az események gyorsan peregnek. 141 00:07:02,835 --> 00:07:06,062 Gondoljunk arra, hogy egy emberélet alatt 142 00:07:06,086 --> 00:07:08,319 a gépek eljutottak a gyerekjátékoktól 143 00:07:09,620 --> 00:07:12,668 a stratégiai gondolkodás csúcsának számító dolgokig. 144 00:07:13,699 --> 00:07:16,116 A számítógép eljut 145 00:07:16,140 --> 00:07:19,450 Spock jellemvonásaitól 146 00:07:20,474 --> 00:07:22,423 Kirk kapitányéihoz. 147 00:07:22,447 --> 00:07:26,065 (Nevetés) 148 00:07:26,089 --> 00:07:29,513 Ugye? A tiszta logikától a találékonyságig. 149 00:07:31,584 --> 00:07:33,327 Átmennének ezen a hídon? 150 00:07:34,009 --> 00:07:36,332 Sokan azt mondják: "Egy frászt!" 151 00:07:36,356 --> 00:07:37,664 (Nevetés) 152 00:07:37,688 --> 00:07:40,345 Döntő ponthoz érkeztek. 153 00:07:40,369 --> 00:07:42,797 Valahogy úgy sejtik, hogy a híd nem biztonságos. 154 00:07:42,821 --> 00:07:44,810 Ez valami ösztönféle, 155 00:07:44,834 --> 00:07:48,402 amelyet a mélytanulási rendszereink most kezdenek kialakítani. 156 00:07:49,122 --> 00:07:50,829 Nemsokára szó szerint tudunk majd 157 00:07:50,853 --> 00:07:53,782 a gépnek mutatni egy általunk készített vagy tervezett dolgot, 158 00:07:53,806 --> 00:07:55,439 és annak láttán a gép így szól: 159 00:07:55,463 --> 00:07:58,286 "Emberke, sajnos ez nem fog működni. Próbálkozz tovább." 160 00:07:59,254 --> 00:08:02,324 Vagy megkérdezhetjük, tetszeni fog-e az embereknek az új dalunk 161 00:08:03,173 --> 00:08:05,236 vagy új illatszerünk vagy új fagylaltunk. 162 00:08:06,949 --> 00:08:09,528 De ennél sokkal fontosabb, 163 00:08:09,552 --> 00:08:11,916 hogy együttműködhetünk a géppel 164 00:08:11,940 --> 00:08:13,577 egy újszerű feladat megoldásán. 165 00:08:13,601 --> 00:08:15,002 Pl. az éghajlatváltozásén. 166 00:08:15,026 --> 00:08:17,046 Egyedül nemigen boldogulunk vele, 167 00:08:17,070 --> 00:08:19,315 ezért minden segítség jól jön. 168 00:08:19,339 --> 00:08:21,507 Arra célzok, hogy a technológia fölerősíti 169 00:08:21,517 --> 00:08:23,376 kognitív képességeinket, 170 00:08:23,400 --> 00:08:26,952 ezért elképzelhetjük és megtervezhetjük azt, 171 00:08:26,976 --> 00:08:29,535 amire szűkre szabott emberekként képtelenek voltunk. 172 00:08:31,384 --> 00:08:34,239 Hát akkor hogyan készítsük ezeket az új dolgokat, 173 00:08:34,259 --> 00:08:36,790 amelyeket föl akarunk találni s meg akarunk tervezni? 174 00:08:37,352 --> 00:08:41,445 Az ember kibővítése legalább annyira a fizikai világát jelenti, 175 00:08:41,469 --> 00:08:44,534 mint a virtuális, intellektuális birodalmát. 176 00:08:45,233 --> 00:08:47,154 Hogyan bővít ki minket a technológia? 177 00:08:47,565 --> 00:08:50,038 Fizikai világunkban, a robotrendszerekben. 178 00:08:51,620 --> 00:08:53,356 Persze, nyilván félünk, 179 00:08:53,380 --> 00:08:55,868 hogy a robotok elveszik a munkánkat. 180 00:08:55,892 --> 00:08:57,722 Bizonyos területre nézve ez igaz. 181 00:08:58,174 --> 00:09:01,052 De engem sokkal inkább fölvillanyoz a gondolat, 182 00:09:01,076 --> 00:09:06,086 hogy az együttműködő ember és robot kibővíti egymás lehetőségeit, 183 00:09:06,110 --> 00:09:08,168 és új teret foglal magának. 184 00:09:08,192 --> 00:09:10,554 Ez az alkalmazott kutatólaborunk San Franciscóban, 185 00:09:10,578 --> 00:09:13,720 amelyben többek között fejlett robotikával foglalkozunk: 186 00:09:13,744 --> 00:09:16,255 nevezetesen az ember-robot együttműködéssel. 187 00:09:17,034 --> 00:09:19,793 Ez itt Bishop, az egyik robotunk. 188 00:09:19,817 --> 00:09:21,606 Kísérletképpen építettük meg, 189 00:09:21,630 --> 00:09:25,090 hogy segítsen az ismétlődő munkákban, 190 00:09:25,984 --> 00:09:30,178 pl. csatlakozóknak vagy kapcsolóknak lyukat fúrni gipszkartonba. 191 00:09:30,202 --> 00:09:32,668 (Nevetés) 192 00:09:33,877 --> 00:09:36,502 Az ember Bishopnak közérthetően, 193 00:09:36,522 --> 00:09:38,317 mintha kutyánknak magyaráznánk, 194 00:09:38,341 --> 00:09:39,788 elmondja a teendőt, 195 00:09:39,812 --> 00:09:41,955 aztán Bishop tökéletesen 196 00:09:41,979 --> 00:09:43,871 végrehajtja az utasításokat. 197 00:09:43,895 --> 00:09:46,884 Az embert arra használjuk, amiben jó: 198 00:09:46,908 --> 00:09:49,241 figyelem, érzékelés, döntéshozatal. 199 00:09:49,265 --> 00:09:51,505 A robotot pedig, amiben ő jó: 200 00:09:51,529 --> 00:09:53,277 pontosság és ismétlés. 201 00:09:54,252 --> 00:09:56,619 Ez meg egy mások projekt, amin Bishop dolgozott. 202 00:09:56,643 --> 00:09:59,718 A HIVE-nak, azaz KAPTÁR-nak nevezett projekt célja, 203 00:09:59,742 --> 00:10:03,593 hogy modellezzük az ember, számítógép és robot együttműködését, 204 00:10:03,617 --> 00:10:06,837 amelyek egy bonyolult tervezési feladaton dolgoznak. 205 00:10:07,793 --> 00:10:09,244 Az emberek voltak a munkások. 206 00:10:09,268 --> 00:10:12,741 Járkáltak az építési területen, a bambusszal foglalkoztak, 207 00:10:12,765 --> 00:10:15,521 mert azzal, lévén nem izomorf anyag, 208 00:10:15,545 --> 00:10:17,419 nehezen bánnának a robotok. 209 00:10:17,543 --> 00:10:19,865 De robotok végezték a szálak föltekerését, 210 00:10:19,889 --> 00:10:22,340 amely az embereknek majdnem lehetetlen feladat volt. 211 00:10:22,364 --> 00:10:25,985 Aztán még ellenőrzésre ott volt a mesterséges értelem, az MI. 212 00:10:26,109 --> 00:10:29,399 Mind az emberekkel, mind a robottal közölte a teendőiket, 213 00:10:29,423 --> 00:10:32,338 és figyelemmel kísérte az ezernyi részműveletet. 214 00:10:32,362 --> 00:10:33,542 Ebben az érdekes, 215 00:10:33,566 --> 00:10:36,707 hogy a pavilon megépítése lehetetlen lett volna 216 00:10:36,731 --> 00:10:41,255 az ember, a robot és az MI egymást kiegészítő megléte nélkül. 217 00:10:42,390 --> 00:10:45,710 Szólok egy kissé őrült projektünkről is. 218 00:10:47,734 --> 00:10:52,202 Együtt dolgozunk Joris Laarmannal, az amszterdami MX3D művészével 219 00:10:53,526 --> 00:10:56,404 és csapatával, hogy megtervezzük és robotokkal kinyomtassuk 220 00:10:56,428 --> 00:10:59,423 a világ első, önmaga gyártotta hídját. 221 00:11:01,015 --> 00:11:04,024 Joris és egy MI, miközben itt beszélek, 222 00:11:04,044 --> 00:11:05,896 Amszterdamban tervezi ezt a dolgot. 223 00:11:06,620 --> 00:11:09,211 Amikor elkészülünk, megnyomjuk a startgombot, 224 00:11:09,235 --> 00:11:12,546 és a robotok nekilátnak 3D-ben acélból kinyomtatni, 225 00:11:12,570 --> 00:11:15,853 aztán csak folyik a nyomtatás, emberi beavatkozás nélkül, 226 00:11:15,877 --> 00:11:17,435 amíg a híd el nem készül. 227 00:11:18,769 --> 00:11:21,697 A számítógépek kibővítik új dolgok kigondolásához 228 00:11:21,721 --> 00:11:23,871 és tervezéséhez szükséges képességeinket, 229 00:11:23,895 --> 00:11:26,790 a robotrendszerek segítenek olyan dolgok létrehozásában, 230 00:11:26,814 --> 00:11:28,898 amelyekre magunk soha nem vagyunk képesek. 231 00:11:30,017 --> 00:11:34,177 De mi a helyzet e dolgok érzékelésének és irányításának képességével? 232 00:11:34,201 --> 00:11:38,232 Mi a helyzet a gyártmányaink idegrendszerével? 233 00:11:40,486 --> 00:11:42,998 Idegrendszerünk, az emberi idegrendszer 234 00:11:43,022 --> 00:11:45,333 közvetít mindent, ami köröttünk történik. 235 00:11:46,086 --> 00:11:49,389 De gyártmányaink idegrendszere kezdetleges. 236 00:11:49,413 --> 00:11:51,578 Mondjuk, pocsék. 237 00:11:51,602 --> 00:11:52,930 (Nevetés) 238 00:11:52,954 --> 00:11:56,817 Pl. egy autó nem jelzi a városgazdálkodásnak, 239 00:11:56,841 --> 00:11:59,971 hogy éppen most huppant bele egy kátyúba. 240 00:12:01,295 --> 00:12:03,327 Egy épület nem közli a tervezőivel, 241 00:12:03,351 --> 00:12:06,035 hogy jól érzik-e magukat a benne lévők. 242 00:12:07,659 --> 00:12:10,669 A játékgyártó sem tudja, 243 00:12:10,693 --> 00:12:12,700 hogy hol és miként játszanak a játékaival, 244 00:12:12,724 --> 00:12:15,263 és szereznek-e örömet? 245 00:12:15,700 --> 00:12:19,694 Biztos vagyok benne, hogy a tervezők ilyen szellemiséget képzeltek el Barbie számára, 246 00:12:19,718 --> 00:12:20,942 amikor tervezték. 247 00:12:20,966 --> 00:12:22,413 (Nevetés) 248 00:12:23,237 --> 00:12:26,143 De mi van, ha kiderül, hogy Barbie magányos? 249 00:12:26,167 --> 00:12:30,302 (Nevetés) 250 00:12:30,326 --> 00:12:31,614 Ha a tervezők tudták volna, 251 00:12:31,638 --> 00:12:33,745 mi sors vár a valóságban a terveikre 252 00:12:33,769 --> 00:12:35,716 – az útra, az épületre, Barbie-ra –, 253 00:12:35,736 --> 00:12:37,354 e tudást fölhasználhatták volna 254 00:12:37,374 --> 00:12:40,008 a fogyasztónak jobb élményt nyújtó dolgok alkotására. 255 00:12:40,038 --> 00:12:42,309 Hiányzik a bennünket a megtervezett, gyártott 256 00:12:42,333 --> 00:12:46,042 és használt dolgokkal összekötő idegrendszer. 257 00:12:46,975 --> 00:12:49,564 Mi lenne, ha a gyártmányainkból 258 00:12:49,574 --> 00:12:52,737 hozzánk áramló információ a birtokunkban lenne? 259 00:12:54,492 --> 00:12:55,943 Minden gyártmányunkra 260 00:12:55,967 --> 00:12:58,402 rengeteg pénzt és energiát fordítunk, 261 00:12:58,426 --> 00:13:00,802 – tavaly kb. kétmilliárd dollárt –, 262 00:13:00,826 --> 00:13:03,680 hogy meggyőzzük az ügyfeleket gyártmányaink megvételéről. 263 00:13:03,704 --> 00:13:07,092 De ha meglenne a kapcsolat a megtervezett és legyártott dolgokkal, 264 00:13:07,116 --> 00:13:08,843 miután kikerültek a vevőhöz 265 00:13:08,867 --> 00:13:12,481 eladás vagy használatba vétel után, 266 00:13:12,505 --> 00:13:14,125 módosítani tudnánk őket, 267 00:13:14,149 --> 00:13:17,596 és az emberek rábeszélése helyett eleve 268 00:13:17,620 --> 00:13:21,054 olyan dolgokat készítenénk, amelyeket igényelnek. 269 00:13:24,478 --> 00:13:27,265 A jó hír, hogy már dolgozunk a digitális idegrendszeren, 270 00:13:27,289 --> 00:13:30,090 amely összeköt bennünket a megtervezett dolgokkal. 271 00:13:31,225 --> 00:13:32,852 Dolgozunk egy projekten 272 00:13:32,876 --> 00:13:37,888 néhány Los Angeles-i sráccal, 273 00:13:37,912 --> 00:13:39,319 a nevük Bandito Brothers. 274 00:13:39,343 --> 00:13:42,776 A srácok őrült kocsikat terveznek, 275 00:13:42,800 --> 00:13:45,673 amelyek őrült dolgokat tesznek. 276 00:13:47,065 --> 00:13:48,515 A srácok hibbantak. 277 00:13:48,539 --> 00:13:49,575 (Nevetés) 278 00:13:49,599 --> 00:13:51,002 A legjobb értelemben. 279 00:13:54,793 --> 00:13:56,556 Együtt azzal foglalkozunk, 280 00:13:56,580 --> 00:13:59,020 hogy egy hagyományos versenyautó-karosszériába 281 00:13:59,044 --> 00:14:00,629 idegrendszert építsünk be. 282 00:14:00,653 --> 00:14:03,771 Elláttuk tucatnyi érzékelővel, 283 00:14:03,795 --> 00:14:06,430 világklasszis vezetőt ültetve a kormányához 284 00:14:06,454 --> 00:14:09,811 kivittük a sivatagba, és egy hétig gyötörtük. 285 00:14:09,835 --> 00:14:12,326 A kocsi idegrendszere mindent rögzített, 286 00:14:12,350 --> 00:14:13,832 ami csak a kocsival történt. 287 00:14:13,856 --> 00:14:16,477 Négymilliárd adatot rögzítettünk, 288 00:14:16,501 --> 00:14:18,811 minden erőhatást, amelynek ki volt téve. 289 00:14:18,835 --> 00:14:20,564 Aztán valami őrült dolgot műveltünk. 290 00:14:21,238 --> 00:14:22,738 Ezeket az adatokat betápláltuk 291 00:14:22,762 --> 00:14:26,498 a "Dreamcatcher" nevű tervező MI-nkbe. 292 00:14:27,240 --> 00:14:31,204 Mit kapunk, amikor idegrendszert adunk a tervezőeszközhöz, 293 00:14:31,228 --> 00:14:34,110 és megépíttetjük vele a legjobb karosszériát? 294 00:14:34,693 --> 00:14:36,666 Ezt. 295 00:14:38,263 --> 00:14:41,976 Ilyet ember sohasem tervezett volna. 296 00:14:42,677 --> 00:14:44,565 Illetve, ember tervezte, de olyan, 297 00:14:44,589 --> 00:14:48,898 aki ki volt bővítve tervező MI-vel, 298 00:14:48,922 --> 00:14:50,153 digitális idegrendszerrel 299 00:14:50,177 --> 00:14:53,182 és robotokkal, amely valami ilyet tud bütykölni. 300 00:14:54,150 --> 00:14:57,745 Ha ez a jövő, a kibővített kor, és ha kibővülünk 301 00:14:57,769 --> 00:15:02,030 kognitív, fizikális és érzékelési téren, 302 00:15:02,054 --> 00:15:03,462 milyen lesz az? 303 00:15:04,046 --> 00:15:06,712 Milyen lesz az a tündérország? 304 00:15:08,291 --> 00:15:10,900 Szerintem olyan világ lesz, 305 00:15:10,924 --> 00:15:13,992 amelyben a gyártott dolgokról áttérünk 306 00:15:15,101 --> 00:15:16,546 a termesztettekre. 307 00:15:18,429 --> 00:15:22,374 A megtervezett dolgokról 308 00:15:22,398 --> 00:15:24,102 a növekvőkre. 309 00:15:26,504 --> 00:15:28,692 Az elszigeteltség helyett 310 00:15:29,660 --> 00:15:31,270 az összeköttetés felé megyünk. 311 00:15:33,104 --> 00:15:36,015 A kinyerés helyett 312 00:15:36,039 --> 00:15:37,912 az egyesítést választjuk. 313 00:15:40,437 --> 00:15:44,204 Dolgaink engedelmességre kényszerítése helyett 314 00:15:45,128 --> 00:15:46,959 inkább önállóságukat fogjuk értékelni. 315 00:15:49,480 --> 00:15:51,385 Kibővült képességeinknek hála 316 00:15:51,409 --> 00:15:53,786 világunk lényegesen megváltozik. 317 00:15:54,702 --> 00:15:58,305 Jó analógia a korallzátony mikrokozmosza. 318 00:15:58,836 --> 00:16:02,082 Változatosabb, összefüggőbb, 319 00:16:02,106 --> 00:16:04,393 dinamikusabb, bonyolultabb, 320 00:16:04,417 --> 00:16:06,735 alkalmazkodóbb és, természetesen, 321 00:16:06,759 --> 00:16:07,976 szebb lesz a világunk. 322 00:16:08,741 --> 00:16:10,305 A jövendő dolgok formája 323 00:16:10,329 --> 00:16:12,619 eltér a valaha látottakétól. 324 00:16:12,643 --> 00:16:13,802 Miért? 325 00:16:13,826 --> 00:16:17,581 Mert azokat a dolgokat a technológia, a természet és az ember közötti 326 00:16:17,605 --> 00:16:21,275 új partnerség fogja alakítani. 327 00:16:22,789 --> 00:16:26,593 Számomra ez olyan jövő, amelynek bekövetkeztét már alig várom. 328 00:16:26,617 --> 00:16:27,888 Köszönöm szépen. 329 00:16:27,912 --> 00:16:34,912 (Taps)