0:00:00.735,0:00:03.024 Ilu z was to twórcy, 0:00:03.048,0:00:06.672 projektanci, inżynierowie,[br]przedsiębiorcy, artyści 0:00:06.696,0:00:09.083 albo osoby z bujną wyobraźnią? 0:00:09.107,0:00:10.955 Podnieście ręce. 0:00:10.979,0:00:12.160 Większość. 0:00:13.334,0:00:15.628 Mam wiadomość dla twórców. 0:00:16.714,0:00:19.287 W ciągu najbliższych 20 lat 0:00:21.471,0:00:24.444 sposób wykonywania pracy[br]zmieni się bardziej 0:00:25.382,0:00:27.539 niż przez ostatnie 2000 lat. 0:00:28.511,0:00:33.139 Zaczyna się nowa era w historii ludzkości. 0:00:33.645,0:00:38.406 Są 4 główne ery różniące się[br]sposobem wykonywania pracy. 0:00:39.404,0:00:42.679 Era zbieracko-łowiecka[br]trwała kilka milionów lat. 0:00:43.163,0:00:46.739 Era rolnicza, kilka tysięcy lat. 0:00:47.195,0:00:50.685 Era przemysłowa, kilka stuleci. 0:00:50.709,0:00:54.996 Era informacyjna[br]trwa zaledwie kilka dekad. 0:00:55.020,0:01:00.240 Wkraczamy w kolejną wspaniałą erę. 0:01:01.296,0:01:03.976 Witajcie w erze[br]rozszerzonej rzeczywistości. 0:01:04.000,0:01:07.693 Wasze naturalne możliwości[br]będą rozbudowane 0:01:07.717,0:01:10.785 przez systemy komputerowe,[br]które pomogą wam myśleć, 0:01:10.809,0:01:12.995 roboty, które pomogą wam tworzyć 0:01:13.019,0:01:14.667 i cyfrowy układ nerwowy, 0:01:14.691,0:01:18.381 który połączy was ze światem[br]wykraczającym poza naturalne zmysły. 0:01:19.437,0:01:21.379 Zacznijmy od rozszerzenia inteligencji. 0:01:21.403,0:01:23.603 Kto z was jest cyborgiem? 0:01:24.133,0:01:26.783 (Śmiech) 0:01:26.807,0:01:29.628 Możliwości naszego umysłu[br]już są rozszerzone. 0:01:30.288,0:01:32.182 Wyobraź sobie, że jesteś na przyjęciu. 0:01:32.222,0:01:35.336 Ktoś zadaje ci pytanie, [br]na które nie znasz odpowiedzi. 0:01:35.360,0:01:39.120 Jeśli masz coś takiego, [br]w kilka sekund możesz ją poznać. 0:01:39.869,0:01:42.168 To tylko prymitywny początek. 0:01:42.863,0:01:46.194 Nawet Siri to bierne narzędzie. 0:01:46.660,0:01:50.041 Od trzech i pół miliona lat 0:01:50.065,0:01:53.174 korzystamy z bezwolnych narzędzi, 0:01:54.203,0:01:57.858 które tylko wykonują polecenia. 0:01:57.882,0:02:00.983 Pierwsze narzędzie[br]cięło tylko w miejscu uderzenia. 0:02:01.822,0:02:04.862 Dłuto rzeźbi tylko tam,[br]gdzie przyłoży je artysta. 0:02:05.343,0:02:10.984 Nawet najbardziej nowoczesne narzędzia[br]tylko wykonują polecenia. 0:02:11.008,0:02:13.953 Irytuje mnie, że do tej pory 0:02:13.993,0:02:15.661 ograniczał nas przymus 0:02:15.685,0:02:19.186 manualnego narzucania[br]naszej woli narzędziom, 0:02:19.210,0:02:21.507 czyli używania rąk, 0:02:21.531,0:02:23.539 nawet przy korzystaniu z komputerów. 0:02:24.072,0:02:26.535 Jestem jak Scotty ze "Star Treka". 0:02:26.559,0:02:28.409 (Śmiech) 0:02:28.433,0:02:30.579 Chcę rozmawiać z komputerem. 0:02:30.603,0:02:33.573 Chcę powiedzieć: "Komputerze,[br]zaprojektujmy samochód", 0:02:33.597,0:02:35.136 a komputer go pokaże. 0:02:35.160,0:02:37.768 Powiem: "Ma być szybszy[br]i mniej niemiecki", 0:02:37.792,0:02:39.955 a komputer pokaże mi projekt. 0:02:39.979,0:02:41.844 (Śmiech) 0:02:42.208,0:02:44.514 Część z was pewnie sądzi, 0:02:44.538,0:02:47.203 że taka rozmowa jest czymś odległym, 0:02:47.227,0:02:50.050 ale właśnie pracujemy nad tym. 0:02:50.189,0:02:54.222 Bezwolne narzędzia[br]zastępowane są generatywnymi. 0:02:54.831,0:02:58.139 Korzystają one z komputera i algorytmów 0:02:58.163,0:03:00.771 do samodzielnego tworzenia geometrii 0:03:00.795,0:03:03.549 dla nowego projektu. 0:03:03.996,0:03:06.744 Muszą tylko znać[br]cel projektu i ograniczenia. 0:03:06.768,0:03:08.176 Podam przykład. 0:03:08.200,0:03:10.988 W przypadku ramy tego powietrznego drona, 0:03:11.012,0:03:13.638 musielibyśmy tylko wskazać, 0:03:13.662,0:03:14.935 że ma mieć cztery śmigła, 0:03:14.959,0:03:17.090 ma być bardzo lekki 0:03:17.114,0:03:19.384 i musi mieć opływowy kształt. 0:03:19.408,0:03:24.322 Komputer bada wszelkie możliwości 0:03:24.346,0:03:28.273 spełnienia podanych warunków, 0:03:28.297,0:03:29.739 miliony sposobów. 0:03:29.763,0:03:31.738 Używa się do tego dużych komputerów. 0:03:31.762,0:03:33.717 Przedstawiają nam projekty, 0:03:33.741,0:03:36.884 których sami nigdy byśmy nie wymyślili. 0:03:37.326,0:03:40.238 Komputer sam tworzy cały materiał, 0:03:40.262,0:03:41.940 nikt niczego nie rysuje, 0:03:41.964,0:03:44.050 a zaczyna całkowicie od zera. 0:03:45.038,0:03:47.425 To nie przypadek, 0:03:47.449,0:03:50.930 że szkielet drona przypomina[br]miednicę wiewiórki latającej. 0:03:51.287,0:03:53.294 (Śmiech) 0:03:54.040,0:03:56.342 Bowiem stworzone algorytmy mają działać 0:03:56.366,0:03:58.003 w taki sam sposób, jak ewolucja. 0:03:58.715,0:04:01.375 Ogromnie cieszy,[br]że widzimy już tę technologię 0:04:01.399,0:04:02.848 w prawdziwym świecie. 0:04:02.878,0:04:05.034 Od kilku lat pracujemy nad Airbusem, 0:04:05.058,0:04:06.967 tworząc samolot przyszłości. 0:04:06.991,0:04:09.061 Jeszcze dużo pracy przed nami, 0:04:09.085,0:04:12.865 ale ostatnio użyliśmy generatywnego[br]projektu sztucznej inteligencji (AI), 0:04:12.889,0:04:14.696 żeby stworzyć coś takiego. 0:04:15.609,0:04:20.762 To jest wydruk 3D przegrody kabiny,[br]zaprojektowanej przez komputer. 0:04:20.786,0:04:23.610 Jest mocniejsza i o połowę[br]lżejsza od oryginalnej. 0:04:23.634,0:04:26.780 Będzie użyta w Airbusie A320[br]pod koniec tego roku. 0:04:27.405,0:04:28.964 Komputery mogą tworzyć produkty. 0:04:28.988,0:04:33.583 Podają własne rozwiązania[br]określonych przez nas problemów. 0:04:34.677,0:04:35.987 Ale nie mają intuicji. 0:04:36.011,0:04:39.097 Za każdym razem zaczynają od zera, 0:04:39.121,0:04:41.686 bo nigdy się nie uczą. 0:04:42.368,0:04:44.134 W przeciwieństwie do Maggie. 0:04:44.158,0:04:45.739 (Śmiech) 0:04:45.763,0:04:49.060 Maggie jest mądrzejsza[br]od nowoczesnych narzędzi projektowych. 0:04:49.467,0:04:50.907 Dlaczego? 0:04:50.931,0:04:52.521 Gdy jej pani bierze smycz, 0:04:52.545,0:04:54.613 Maggie wie, że prawie na pewno 0:04:54.637,0:04:56.041 czas na spacer. 0:04:56.065,0:04:57.250 Jak się tego nauczyła? 0:04:57.274,0:05:00.598 Zawsze, gdy pani[br]brała smycz, szły na spacer. 0:05:00.622,0:05:02.500 Dla Maggie trzy rzeczy były istotne. 0:05:02.524,0:05:04.393 Musiała uważać, 0:05:04.417,0:05:06.499 zapamiętać to, co się wydarzyło, 0:05:06.523,0:05:10.540 i stworzyć wzór zachowań. 0:05:11.429,0:05:13.524 Co ciekawe, przez ostatnie 60 lat 0:05:13.548,0:05:16.071 informatycy pracują 0:05:16.095,0:05:17.954 nad właśnie takim działaniem AI. 0:05:18.683,0:05:20.732 W 1952 roku zbudowano komputer, 0:05:20.762,0:05:23.857 który potrafił grać w kółko i krzyżyk. 0:05:25.081,0:05:26.241 Wielki wyczyn! 0:05:27.029,0:05:30.029 45 lat później, w 1997 roku, 0:05:30.053,0:05:32.525 Deep Blue pokonał Kasparowa w szachy. 0:05:34.046,0:05:39.014 W 2011 roku Watson pokonuje[br]tych dwóch w grze Jeopardy, 0:05:39.038,0:05:41.966 co było trudniejsze[br]dla komputera niż szachy, 0:05:41.990,0:05:45.802 bo nie działał w oparciu[br]o określone zasady, 0:05:45.826,0:05:49.149 tylko musiał zastosować analizę,[br]żeby pokonać człowieka. 0:05:50.393,0:05:52.832 Kilka tygodni temu 0:05:52.856,0:05:57.118 AlphaGo firmy DeepMind pokonuje[br]najlepszego zawodnika w grze w Go, 0:05:57.142,0:05:59.354 która jest najtrudniejszą z gier. 0:05:59.378,0:06:02.274 W tej grze jest więcej możliwości ruchu 0:06:02.298,0:06:04.322 niż atomów we wszechświecie. 0:06:06.210,0:06:08.036 Żeby wygrać, 0:06:08.060,0:06:10.678 AlphaGo musiał rozwinąć intuicję. 0:06:11.098,0:06:15.208 Nawet programiści AlphaGo nie rozumieli 0:06:15.232,0:06:17.518 niektórych jego zachowań. 0:06:19.291,0:06:21.111 Wszystko zmienia się bardzo szybko. 0:06:21.135,0:06:24.362 W ciągu kilkudziesięciu lat, 0:06:24.386,0:06:26.619 komputery rozwinęły się od dziecięcej gry 0:06:27.920,0:06:30.968 po najbardziej rozwinięte[br]myślenie strategiczne. 0:06:31.999,0:06:34.416 Obserwujemy, 0:06:34.440,0:06:37.750 jak komputery przypominające Spocka 0:06:37.774,0:06:39.853 zmieniają się w te, przypominające Kirka. 0:06:39.893,0:06:43.365 (Śmiech) 0:06:43.389,0:06:46.813 Od czystej logiki do intuicji. 0:06:48.184,0:06:49.927 Przeszlibyście przez ten most? 0:06:50.609,0:06:52.932 Większość powie: "Nie ma mowy!". 0:06:52.956,0:06:54.264 (Śmiech) 0:06:54.288,0:06:56.945 Podjęliście tę decyzję w jednej chwili. 0:06:56.969,0:06:59.397 Założyliście, że ten most[br]nie jest bezpieczny. 0:06:59.421,0:07:01.410 Właśnie taki rodzaj intuicji 0:07:01.434,0:07:05.002 jest obecnie tworzony[br]przez systemy samouczące. 0:07:05.722,0:07:07.429 Niebawem będzie można 0:07:07.453,0:07:10.399 pokazać komputerowi produkt lub projekt 0:07:10.399,0:07:11.973 a on spojrzy na to i powie, 0:07:11.973,0:07:15.196 "Sorki, brachu. To się nie uda.[br]Spróbuj jeszcze raz". 0:07:15.854,0:07:18.924 Albo spytacie go, czy ludziom[br]spodoba się wasza nowa piosenka 0:07:19.773,0:07:21.836 albo nowy smak lodów. 0:07:23.549,0:07:26.128 Albo, co istotniejsze, 0:07:26.152,0:07:28.516 moglibyście pracować[br]z komputerem nad problemem, 0:07:28.540,0:07:30.177 wcześniej nieznanym, 0:07:30.201,0:07:31.602 jak zmiana klimatu. 0:07:31.626,0:07:33.646 Nie idzie nam za dobrze, 0:07:33.670,0:07:35.915 więc przydałaby nam się każda pomoc. 0:07:35.939,0:07:37.397 Właśnie o tym mówię, 0:07:37.421,0:07:39.976 technologia zwiększa[br]nasze możliwości poznawcze, 0:07:40.000,0:07:43.552 dlatego można stworzyć rzeczy,[br]dotąd nieosiągalne 0:07:43.576,0:07:46.135 dla zwykłych ludzi[br]o nierozszerzonym umyśle. 0:07:47.984,0:07:50.925 Co z tymi szalonymi[br]wynalazkami i projektami, 0:07:50.949,0:07:53.390 które mamy stworzyć? 0:07:53.952,0:07:58.045 Era rozszerzania ludzkich możliwości[br]dotyczy nie tylko świata fizycznego, 0:07:58.069,0:08:01.134 ale też wirtualnego i intelektualnego. 0:08:01.833,0:08:04.024 Jak technologia poszerzy nasze możliwości? 0:08:04.261,0:08:06.734 W świecie fizycznym zrobią to roboty. 0:08:07.620,0:08:09.356 Jest oczywiście obawa, 0:08:09.380,0:08:11.868 że roboty odbiorą nam pracę, 0:08:11.892,0:08:13.722 co jest widoczne w pewnych sektorach. 0:08:14.174,0:08:17.052 Bardziej interesuje mnie, 0:08:17.076,0:08:22.086 jak współpraca człowieka i robota,[br]poszerzy ich wzajemne możliwości 0:08:22.110,0:08:24.168 i zajmie nową przestrzeń. 0:08:24.192,0:08:26.554 To nasze laboratorium[br]badawcze w San Francisco, 0:08:26.578,0:08:29.720 gdzie jednym z obszarów badań[br]jest zaawansowana robotyka, 0:08:29.744,0:08:32.255 głównie współpraca człowieka z robotem. 0:08:33.034,0:08:35.707 To jest Bishop, jeden z robotów. 0:08:35.717,0:08:37.776 W ramach eksperymentu zaprogramowaliśmy go 0:08:37.776,0:08:39.784 do pomocy w pracach budowlanych. 0:08:39.784,0:08:43.194 Wykonuje powtarzające się czynności,[br]jak wycinanie dziur w regipsach 0:08:43.194,0:08:46.178 pod gniazdka elektryczne[br]lub włącznik światła. 0:08:46.202,0:08:48.668 (Śmiech) 0:08:49.877,0:08:52.988 Pomocnik Bishopa mówi mu[br]prostym językiem, co ma zrobić, 0:08:53.012,0:08:54.317 używając jasnych gestów, 0:08:54.341,0:08:55.788 jakby mówił do psa, 0:08:55.812,0:08:57.955 a Bishop wykonuje te polecenia 0:08:57.979,0:08:59.871 z dużą precyzją. 0:08:59.895,0:09:02.884 Wykorzystujemy człowieka[br]do tego, w czym jest dobry, 0:09:02.908,0:09:05.241 jak świadomość, percepcja[br]i podejmowanie decyzji, 0:09:05.265,0:09:07.505 a robota do tego, w czym on jest dobry, 0:09:07.529,0:09:09.277 jak precyzja i powtarzalność. 0:09:10.062,0:09:12.719 To jeszcze jeden ciekawy[br]projekt Bishopa o nazwie HIVE. 0:09:12.739,0:09:15.718 Jego celem było przedstawienie 0:09:15.742,0:09:19.593 pracy człowieka, komputera i robota, 0:09:19.617,0:09:22.837 nad skomplikowanym projektem. 0:09:23.793,0:09:25.244 Ludzie byli siłą roboczą. 0:09:25.268,0:09:28.741 Krążyli wokół konstrukcji,[br]sterowali bambusem, 0:09:28.765,0:09:31.205 który jest materiałem nieizomorficznym, 0:09:31.205,0:09:33.649 przez co sprawia robotom dużo trudności. 0:09:33.649,0:09:35.465 Roboty nawijały włókna, 0:09:35.489,0:09:37.940 co było prawie niewykonalne dla człowieka. 0:09:37.964,0:09:41.585 AI kontrolowała wszystkie działania. 0:09:41.609,0:09:44.899 Mówiła ludziom i robotom, co mają robić. 0:09:44.923,0:09:47.838 Kontrolowała działania[br]tysięcy komponentów. 0:09:47.862,0:09:49.042 Co ciekawe, 0:09:49.066,0:09:52.667 budowa tego pawilonu byłaby niemożliwa 0:09:52.697,0:09:56.755 bez współdziałania człowieka, robota i AI. 0:09:57.890,0:10:01.210 To jeszcze jeden projekt,[br]trochę zwariowany. 0:10:01.234,0:10:05.702 Pracujemy z artystą z Amsterdamu,[br]Jorisem Laarmanem i jego zespołem w MX3D, 0:10:05.726,0:10:08.604 nad generatywnym projektem[br]i automatycznym wydrukiem 0:10:08.628,0:10:11.623 pierwszego na świecie[br]samodzielnie wyprodukowanego mostu. 0:10:12.315,0:10:14.734 Właśnie teraz Joris i AI 0:10:14.734,0:10:17.196 projektują go w Amsterdamie. 0:10:17.220,0:10:19.541 Gdy skończą, 0:10:19.565,0:10:22.876 roboty rozpoczną[br]wydruk 3D w nierdzewnej stali 0:10:22.900,0:10:26.183 i będą drukować bez ingerencji człowieka, 0:10:26.207,0:10:27.765 aż ukończą most. 0:10:29.099,0:10:31.881 Komputery rozszerzają nasze możliwości 0:10:31.911,0:10:34.201 wyobrażania sobie[br]i projektowania nowych rzeczy, 0:10:34.225,0:10:37.120 a roboty pomagają nam w budowie rzeczy, 0:10:37.144,0:10:39.228 których dotąd nie potrafiliśmy zrobić. 0:10:40.347,0:10:44.507 Co z naszą umiejętnością do wyczuwania[br]i kontrolowania tych przedmiotów? 0:10:44.531,0:10:48.562 Co z systemem nerwowym[br]wytwarzanych rzeczy? 0:10:48.586,0:10:51.098 Nasz system nerwowy 0:10:51.122,0:10:53.433 mówi nam wszystko o tym,[br]co się dzieje wokół nas. 0:10:54.186,0:10:57.870 System nerwowy wytwarzanych produktów[br]może być tylko elementarny. 0:10:57.894,0:11:01.457 Samochód nie powie[br]wydziałowi drogownictwa, 0:11:01.481,0:11:04.611 że właśnie wjechał w dziurę[br]na rogu ulic Broadway i Morrison. 0:11:04.635,0:11:06.667 Budynek nie powie swoim budowniczym, 0:11:06.691,0:11:09.375 czy ludzie lubią w nim przebywać, 0:11:09.399,0:11:12.409 a producent zabawek nie wie, 0:11:12.433,0:11:14.440 czy jego zabawki są właśnie używane, 0:11:14.464,0:11:17.003 w jaki sposób, gdzie[br]i czy w ogóle ktoś się nimi bawi. 0:11:17.620,0:11:21.434 Jestem pewien, że projektanci[br]wymarzyli sobie takie życie dla Barbie, 0:11:21.458,0:11:22.682 gdy ją projektowali. 0:11:22.706,0:11:24.153 (Śmiech) 0:11:24.177,0:11:27.083 A co, jeśli okaże się,[br]że Barbie jest samotna? 0:11:27.107,0:11:30.254 (Śmiech) 0:11:31.166,0:11:32.554 Gdyby projektanci wiedzieli, 0:11:32.578,0:11:34.685 jaki los czeka ich projekty, 0:11:34.709,0:11:37.292 drogi, budynki, Barbie, 0:11:37.316,0:11:40.010 użyliby tej wiedzy,[br]żeby zapewnić lepsze doznania 0:11:40.034,0:11:41.434 ich użytkownikom. 0:11:41.458,0:11:43.249 Brakuje systemu nerwowego 0:11:43.273,0:11:46.982 łączącego nas z tworzonymi[br]i używanymi produktami. 0:11:47.915,0:11:51.470 A gdybyśmy mieli[br]informację zwrotną od rzeczy, 0:11:51.494,0:11:53.677 które tworzymy w prawdziwym świecie? 0:11:55.432,0:11:56.883 Produkując je, 0:11:56.907,0:11:59.342 zużywamy mnóstwo pieniędzy i energii, 0:11:59.366,0:12:01.742 w zeszłym roku jakieś dwa biliony dolarów, 0:12:01.766,0:12:04.620 przekonując ludzi, żeby je kupili. 0:12:04.644,0:12:08.032 Gdybyśmy mieli łączność z produktami 0:12:08.056,0:12:09.783 po wypuszczeniu ich na rynek, 0:12:09.807,0:12:13.421 po sprzedaży czy oddaniu do użytku, 0:12:13.445,0:12:17.505 to zamiast zachęcać klientów[br]do naszych produktów, 0:12:18.160,0:12:21.594 moglibyśmy produkować to,[br]co klienci chcą mieć. 0:12:21.618,0:12:24.665 Dobra wiadomość jest taka,[br]że pracujemy nad systemami nerwowymi, 0:12:24.665,0:12:27.230 które łączą nas z produktami. 0:12:28.365,0:12:29.992 Pracujemy nad pewnym projektem 0:12:30.016,0:12:33.728 z Bandito Brothers z Los Angeles 0:12:33.752,0:12:35.159 i ich zespołem. 0:12:35.183,0:12:38.616 Jednym z ich projektów[br]jest budowa niesamowitych samochodów, 0:12:38.640,0:12:41.513 które robią niesamowite rzeczy. 0:12:42.905,0:12:44.355 Ci faceci są szaleni. 0:12:44.379,0:12:45.415 (Śmiech) 0:12:45.439,0:12:47.062 W najlepszym tego słowa znaczeniu. 0:12:48.993,0:12:53.166 Wzięliśmy podwozie z prawdziwego[br]samochodu rajdowego 0:12:53.244,0:12:54.829 i daliśmy mu system nerwowy. 0:12:54.853,0:12:57.911 Wyposażyliśmy go w dziesiątki sensorów, 0:12:57.935,0:13:00.534 posadziliśmy za kółkiem[br]światowej klasy kierowcę, 0:13:00.534,0:13:04.111 pojechaliśmy na pustynię i przez tydzień[br]wyciągaliśmy z niego, ile się dało. 0:13:04.111,0:13:06.466 System nerwowy samochodu[br]uchwycił wszystko, 0:13:06.490,0:13:07.972 co go dotyczyło. 0:13:07.996,0:13:10.617 Zdobyliśmy miliard danych. 0:13:10.641,0:13:12.951 Wszystkie przebyte obciążenia. 0:13:12.975,0:13:14.634 Potem zrobiliśmy coś szalonego. 0:13:15.268,0:13:17.428 Wszystkie te dane dostał "Dreamcatcher", 0:13:17.428,0:13:20.528 AI do projektowania generatywnego. 0:13:21.270,0:13:25.234 Co powstanie, gdy narzędzie[br]do projektowania zyska system nerwowy 0:13:25.258,0:13:28.140 i ma stworzyć najlepsze podwozie? 0:13:28.723,0:13:30.696 Otrzymacie to. 0:13:32.293,0:13:36.006 Człowiek nigdy by tego nie zaprojektował. 0:13:36.247,0:13:38.595 Jednak zaprojektował to człowiek, 0:13:38.619,0:13:42.928 ale przy pomocy AI[br]do projektowania generatywnego, 0:13:42.952,0:13:44.293 cyfrowego systemu nerwowego 0:13:44.293,0:13:47.212 i robotów, które potrafią[br]stworzyć coś takiego. 0:13:47.680,0:13:51.275 Jeśli era rozszerzonej[br]rzeczywistości jest przyszłością, 0:13:51.299,0:13:55.560 a my będziemy poszerzać swoje możliwości[br]poznawcze, fizyczne i percepcyjne, 0:13:55.584,0:13:56.992 co z tego powstanie? 0:13:57.576,0:14:00.897 Jak będzie wyglądała ta kraina czarów? 0:14:00.921,0:14:02.630 Pewnie będzie to świat, 0:14:02.654,0:14:05.722 w którym zamiast produkować, 0:14:05.746,0:14:07.191 będziemy hodować. 0:14:08.159,0:14:11.612 Produkty nie będą konstruowane, 0:14:11.636,0:14:13.340 tylko będą rosnąć. 0:14:14.134,0:14:16.322 Nie będą odosobnione, 0:14:16.346,0:14:17.956 tylko połączone. 0:14:18.634,0:14:21.045 Będziemy przechodzić od wydobywania, 0:14:21.069,0:14:22.942 do zbierania. 0:14:23.967,0:14:27.734 Sądzę, że zamiast wymagać posłuszeństwa, 0:14:27.758,0:14:29.399 docenimy niezależność produktów. 0:14:30.510,0:14:32.415 Dzięki poszerzeniu naszych możliwości, 0:14:32.439,0:14:34.816 świat zmieni się diametralnie. 0:14:35.576,0:14:38.822 Będzie w nim więcej[br]różnorodności, spójności, 0:14:38.846,0:14:41.133 dynamizmu, złożoności, 0:14:41.157,0:14:43.475 elastyczności i, oczywiście, 0:14:43.499,0:14:44.716 więcej piękna. 0:14:45.231,0:14:46.795 Kształt przyszłych produktów 0:14:46.819,0:14:49.109 nie będzie przypominał tego,[br]co już widzieliśmy. 0:14:49.133,0:14:50.292 Dlaczego? 0:14:50.316,0:14:54.071 Bo będą one kształtowane przez połączenie 0:14:54.095,0:14:57.765 technologii, natury i pracy człowieka. 0:14:59.279,0:15:03.083 Na taką przyszłość warto czekać. 0:15:03.107,0:15:04.378 Dziękuję bardzo. 0:15:04.402,0:15:10.071 (Brawa)