Portland, dziękuję za zaproszenie! Uwielbiam to miasto. Nigdzie indziej nie dostanę takiego śniadania. (Śmiech) To bardzo twórcze miejsce. (Śmiech) Ilu z was to twórcy, projektanci, inżynierowie, przedsiębiorcy, artyści albo osoby z bujną wyobraźnią? Podnieście ręce. Większość. Mam wiadomość dla twórców. W ciągu najbliższych 20 lat sposób wykonywania pracy zmieni się bardziej niż przez ostatnie 2000 lat. Zaczyna się nowa era w historii ludzkości. Są 4 główne ery różniące się sposobem wykonywania pracy. Era zbieracko-łowiecka trwała kilka milionów lat. Era rolnicza - kilka tysięcy lat. Era przemysłowa - kilka stuleci. Era informacyjna trwa zaledwie kilka dekad. Wkraczamy w kolejną wspaniałą erę. Witajcie w erze rozszerzonej rzeczywistości. Wasze naturalne możliwości będą rozbudowane przez systemy komputerowe, które pomogą wam myśleć, roboty, które pomogą wam tworzyć i cyfrowy układ nerwowy, który połączy was ze światem wykraczającym poza naturalne zmysły. Zacznijmy od rozszerzenia inteligencji. Kto z was jest cyborgiem? (Śmiech) Trzy, cztery osoby. W końcu to jest Portland. (Śmiech) Niesamowite miasto! (Śmiech) Możliwości naszego umysłu już są rozszerzone. Wyobraź sobie, że jesteś na przyjęciu. Ktoś zadaje ci pytanie, na które nie znasz odpowiedzi. Jeśli masz coś takiego, w kilka sekund możesz ją poznać. To tylko prymitywny początek. Nawet Siri to bierne narzędzie. Od trzech i pół miliona lat korzystamy z bezwolnych narzędzi, które tylko wykonują polecenia. Pierwsze narzędzie cięło tylko w miejscu uderzenia. Dłuto rzeźbi tylko tam, gdzie przyłoży je artysta. Nawet najbardziej nowoczesne narzędzia tylko wykonują polecenia. Irytuje mnie, że do tej pory ograniczał nas przymus manualnego narzucania naszej woli narzędziom, czyli używania rąk, nawet przy korzystaniu z komputerów. Jestem jak Scotty ze "Star Treka". (Śmiech) Chcę rozmawiać z komputerem. Chcę powiedzieć: "Komputerze, zaprojektujmy samochód", a komputer go pokaże. Powiem: "Ma być szybszy i mniej niemiecki", a komputer pokaże mi projekt. (Śmiech) Część z was pewnie sądzi, że taka rozmowa jest czymś odległym, ale właśnie pracujemy nad tym. Bezwolne narzędzia zastępowane są generatywnymi. Korzystają one z komputera i algorytmów do samodzielnego tworzenia geometrii dla nowego projektu. Muszą tylko znać cel projektu i ograniczenia. Podam przykład. W przypadku ramy tego powietrznego drona musielibyśmy tylko wskazać, że ma mieć cztery śmigła, ma być bardzo lekki i musi mieć opływowy kształt. Komputer bada wszelkie możliwości spełnienia podanych warunków, miliony sposobów. Używa się do tego dużych komputerów. Przedstawiają nam projekty, których sami nigdy byśmy nie wymyślili. Komputer sam tworzy cały materiał, nikt niczego nie rysuje, a zaczyna całkowicie od zera. To nie przypadek, że szkielet drona przypomina miednicę wiewiórki latającej. (Śmiech) Bowiem stworzone algorytmy mają działać w taki sam sposób, jak ewolucja. Ogromnie cieszy, że widzimy już tę technologię w prawdziwym świecie. Od kilku lat pracujemy nad Airbusem, tworząc samolot przyszłości. Jeszcze dużo pracy przed nami, ale ostatnio użyliśmy generatywnego projektu sztucznej inteligencji (AI), żeby stworzyć coś takiego. To jest wydruk 3D przegrody kabiny, zaprojektowanej przez komputer. Jest mocniejsza i o połowę lżejsza od oryginalnej. Będzie użyta w Airbusie A320 pod koniec tego roku. Komputery mogą tworzyć produkty. Podają własne rozwiązania określonych przez nas problemów. Ale nie mają intuicji. Za każdym razem zaczynają od zera, bo nigdy się nie uczą. W przeciwieństwie do Maggie. (Śmiech) Maggie jest mądrzejsza od nowoczesnych narzędzi projektowych. Dlaczego? Gdy jej pani bierze smycz, Maggie wie, że prawie na pewno czas na spacer. Jak się tego nauczyła? Zawsze, gdy pani brała smycz, szły na spacer. Dla Maggie trzy rzeczy były istotne. Musiała uważać, zapamiętać to, co się wydarzyło, i stworzyć wzór zachowań. Co ciekawe, przez ostatnie 60 lat informatycy pracują nad właśnie takim działaniem AI. W 1952 roku zbudowano komputer, który potrafił grać w kółko i krzyżyk. Wielki wyczyn! 45 lat później, w 1997 roku, Deep Blue pokonał Kasparowa w szachy. W 2011 roku Watson pokonuje tych dwóch w grze Jeopardy, co było trudniejsze dla komputera niż szachy, bo nie działał w oparciu o określone zasady, tylko musiał stosować analizę, żeby pokonać człowieka. Kilka tygodni temu AlphaGo firmy DeepMind pokonuje najlepszego zawodnika w grze w Go, która jest najtrudniejszą z gier. W tej grze jest więcej możliwości ruchu niż atomów we wszechświecie. Żeby wygrać, AlphaGo musiał rozwinąć intuicję. Nawet programiści AlphaGo nie rozumieli niektórych jego zachowań. Wszystko zmienia się bardzo szybko. W ciągu kilkudziesięciu lat komputery rozwinęły się od dziecięcej gry po najbardziej rozwinięte myślenie strategiczne. Obserwujemy, jak komputery przypominające Spocka zmieniają się w te, przypominające Kirka. (Śmiech) Od czystej logiki do intuicji. Przeszlibyście przez ten most? Większość powie: "Nie ma mowy!". (Śmiech) Podjęliście tę decyzję w jednej chwili. Założyliście, że ten most nie jest bezpieczny. Właśnie taki rodzaj intuicji jest obecnie tworzony przez systemy samouczące. Niebawem będzie można pokazać komputerowi produkt lub projekt a on spojrzy na to i powie: "Sorki, brachu. To się nie uda. Spróbuj jeszcze raz". Albo spytacie go, czy ludziom spodoba się wasza nowa piosenka albo nowy smak lodów. Albo, co istotniejsze, moglibyście pracować z komputerem nad problemem, wcześniej nieznanym, jak zmiana klimatu. Nie idzie nam za dobrze, więc przydałaby nam się każda pomoc. Właśnie o tym mówię, technologia zwiększa nasze możliwości poznawcze, dlatego można stworzyć rzeczy, dotąd nieosiągalne dla zwykłych ludzi o nierozszerzonym umyśle. Co z tymi szalonymi wynalazkami i projektami, które mamy stworzyć? Era rozszerzania ludzkich możliwości dotyczy nie tylko świata fizycznego, ale też wirtualnego i intelektualnego. Jak technologia poszerzy nasze możliwości? W świecie fizycznym zrobią to roboty. Jest oczywiście obawa, że roboty odbiorą nam pracę, co jest widoczne w pewnych sektorach. Bardziej interesuje mnie, jak współpraca człowieka i robota, poszerzy ich wzajemne możliwości i zajmie nową przestrzeń. To nasze laboratorium badawcze w San Francisco, gdzie jednym z obszarów badań jest zaawansowana robotyka, głównie współpraca człowieka z robotem. To jest Bishop, jeden z robotów. W ramach eksperymentu zaprogramowaliśmy go do pomocy w pracach budowlanych. Wykonuje monotonne czynności, jak wycinanie dziur w regipsach pod gniazdka elektryczne lub włącznik światła. (Śmiech) Pomocnik Bishopa mówi mu prostym językiem, co ma zrobić, używając jasnych gestów, jakby mówił do psa, a Bishop wykonuje te polecenia z dużą precyzją. Wykorzystujemy człowieka do tego, w czym jest dobry, jak świadomość, percepcja i podejmowanie decyzji, a robota do tego, w czym on jest dobry, jak precyzja i powtarzalność. To jeszcze jeden ciekawy projekt Bishopa o nazwie HIVE. Jego celem było przedstawienie pracy człowieka, komputera i robota, nad skomplikowanym projektem. Ludzie byli siłą roboczą. Krążyli wokół konstrukcji, sterowali bambusem, który jest materiałem nieizomorficznym, przez co sprawia robotom dużo trudności. Roboty nawijały włókna, co było prawie niewykonalne dla człowieka. AI kontrolowała wszystkie działania. Mówiła ludziom i robotom, co mają robić. Kontrolowała działania tysięcy komponentów. Co ciekawe, budowa tego pawilonu byłaby niemożliwa bez współdziałania człowieka, robota i AI. To jeszcze jeden projekt, trochę zwariowany. Pracujemy z artystą z Amsterdamu Jorisem Laarmanem i jego zespołem w MX3D nad generatywnym projektem i automatycznym wydrukiem pierwszego na świecie samodzielnie wyprodukowanego mostu. Właśnie teraz Joris i AI projektują go w Amsterdamie. Gdy skończą, roboty rozpoczną wydruk 3D w nierdzewnej stali i będą drukować bez ingerencji człowieka, aż ukończą most. Komputery rozszerzają nasze możliwości wyobrażania sobie i projektowania nowych rzeczy, a roboty pomagają nam w budowie rzeczy, których dotąd nie potrafiliśmy zrobić. Co z naszą umiejętnością do wyczuwania i kontrolowania tych przedmiotów? Co z systemem nerwowym wytwarzanych rzeczy? Nasz system nerwowy mówi nam wszystko o tym, co się dzieje wokół nas. System nerwowy wytwarzanych produktów jest co najwyżej elementarny. Według mnie jest do bani. (Śmiech) Samochód nie powie wydziałowi drogownictwa, że właśnie wjechał w dziurę na rogu ulic Broadway i Morrison. Budynek nie powie swoim budowniczym, czy ludzie lubią w nim przebywać, a producent zabawek nie wie, czy jego zabawki są właśnie używane, w jaki sposób, gdzie i czy w ogóle ktoś się nimi bawi. Jestem pewien, że projektanci wymarzyli sobie takie życie dla Barbie, gdy ją projektowali. (Śmiech) A co, jeśli okaże się, że Barbie jest samotna? (Śmiech) Gdyby projektanci wiedzieli, jaki los czeka ich projekty, drogi, budynki, Barbie, użyliby tej wiedzy, żeby zapewnić lepsze doznania ich użytkownikom. Brakuje systemu nerwowego łączącego nas z tworzonymi i używanymi produktami. A gdybyśmy mieli informację zwrotną od rzeczy, które tworzymy w prawdziwym świecie? Produkując je, zużywamy mnóstwo pieniędzy i energii, w zeszłym roku jakieś dwa biliony dolarów, przekonując ludzi, żeby je kupili. Gdybyśmy mieli łączność z produktami po wypuszczeniu ich na rynek, po sprzedaży czy oddaniu do użytku, to zamiast zachęcać klientów do naszych produktów, moglibyśmy produkować to, co klienci chcą mieć. Dobra wiadomość jest taka, że pracujemy nad systemami nerwowymi, które łączą nas z produktami. Pracujemy nad pewnym projektem z Bandito Brothers z Los Angeles i ich zespołem. Jednym z ich projektów jest budowa niesamowitych samochodów, które robią niesamowite rzeczy. Ci faceci są szaleni. (Śmiech) W najlepszym tego słowa znaczeniu. Wzięliśmy podwozie z prawdziwego samochodu rajdowego i daliśmy mu system nerwowy. Wyposażyliśmy go w dziesiątki sensorów, posadziliśmy za kółkiem światowej klasy kierowcę, pojechaliśmy na pustynię i przez tydzień wyciągaliśmy z niego, ile się dało. System nerwowy samochodu uchwycił wszystko, co go dotyczyło. Zdobyliśmy miliard danych. Wszystkie przebyte obciążenia. Potem zrobiliśmy coś szalonego. Wszystkie te dane dostał "Dreamcatcher", AI do projektowania generatywnego. Co powstanie, gdy narzędzie do projektowania zyska system nerwowy i ma stworzyć najlepsze podwozie? Otrzymacie to. Człowiek nigdy by tego nie zaprojektował. Jednak zaprojektował to człowiek, ale przy pomocy AI do projektowania generatywnego, cyfrowego systemu nerwowego i robotów, które potrafią stworzyć coś takiego. Jeśli era rozszerzonej rzeczywistości jest przyszłością, a my będziemy poszerzać swoje możliwości poznawcze, fizyczne i percepcyjne, co z tego powstanie? Jak będzie wyglądała ta kraina czarów? Pewnie będzie to świat, w którym zamiast produkować, będziemy hodować. Produkty nie będą konstruowane, tylko będą rosnąć. Przejdziemy od izolacji do łączenia. Będziemy przechodzić od wydobywania, do zbierania. Sądzę, że zamiast wymagać posłuszeństwa, docenimy niezależność produktów. Dzięki poszerzeniu naszych możliwości, świat zmieni się diametralnie. Można to porównać z niesamowitym mikroświatem rafy koralowej. Będzie więcej różnorodności, spójności, dynamizmu, złożoności, elastyczności i, oczywiście, więcej piękna. Kształt przyszłych produktów nie będzie przypominał tego, co już widzieliśmy. Dlaczego? Bo zostaną kształtowane przez połączenie technologii, natury i pracy człowieka. Na taką przyszłość warto czekać. Dziękuję bardzo. (Brawa)