0:00:00.735,0:00:03.024 Серед вас є винахідники, 0:00:03.048,0:00:06.672 дизайнери, інженери,[br]підприємці, художники, 0:00:06.696,0:00:09.083 або, можливо, у вас просто [br]величезна уява? 0:00:09.107,0:00:10.955 Підніміть руки! (Оплески) 0:00:10.979,0:00:12.160 Більшість з вас. 0:00:13.334,0:00:15.628 В мене є новини для нас, творчих людей. 0:00:16.714,0:00:19.287 Впродовж наступних 20 років 0:00:21.471,0:00:24.444 спосіб, в який ми виконуємо свою роботу,[br]зміниться більше, 0:00:25.382,0:00:27.539 ніж за останні 2000 років. 0:00:28.511,0:00:33.139 Насправді, я думаю, що ми на початку[br]нової епохи в людській історії. 0:00:33.645,0:00:38.406 Було чотири основних історичних ери,[br]які визначав спосіб праці. 0:00:39.404,0:00:42.679 Мисливсько-збиральницька епоха[br]тривала декілька мільйонів років. 0:00:43.163,0:00:46.739 Епоха аграрної культури тривала[br]декілька тисяч років. 0:00:47.195,0:00:50.685 Індустріальна епоха тривала[br]кілька століть. 0:00:50.709,0:00:54.996 А інформаційна епоха тривала[br]декілька десятиліть. 0:00:55.020,0:01:00.240 І сьогодні ми, як вид, знаходимось[br]на піку наступної великої ери. 0:01:01.296,0:01:03.976 Ласкаво просимо до Доповненої епохи. 0:01:04.000,0:01:07.693 У цій ері ваші природні людські можливості[br]будуть доповнені 0:01:07.717,0:01:10.785 комп'ютерними системами, [br]що допомагають вам думати, 0:01:10.809,0:01:12.995 роботизованими системами,[br]що сприяють творчості, 0:01:13.019,0:01:14.667 і електронними нервовими системами, 0:01:14.691,0:01:18.381 що з'єднують вас зі світом[br]далеко за межами природних відчуттів. 0:01:19.437,0:01:21.379 Почнімо з когнітивного доповнення. 0:01:21.403,0:01:23.603 Хто з вас доповнені кіборги? 0:01:24.133,0:01:26.783 (Сміх) 0:01:26.807,0:01:29.628 Я б насправді посперечався, що[br]ми вже доповнені. 0:01:30.288,0:01:31.792 Уявіть, що ви на вечірці 0:01:31.816,0:01:35.336 і хтось задає вам запитання,[br]відповідь на яке ви не знаєте. 0:01:35.360,0:01:39.120 Якщо у вас є щось таке,[br]за кілька секунд ви можете знати відповідь 0:01:39.869,0:01:42.168 Але це просто примітивний початок. 0:01:42.863,0:01:46.194 Навіть Siri - це пасивний інструмент. 0:01:46.660,0:01:50.041 Насправді, за останні [br]три з половиною мільйони років 0:01:50.065,0:01:53.174 всі наші інструменти були[br]повністю пасивними. 0:01:54.203,0:01:57.858 Вони роблять точно те, що ми кажемо їм,[br]і нічого більше. 0:01:57.882,0:02:00.983 Найперший наш інструмент тільки[br]різав, коли ми били по ньому. 0:02:01.822,0:02:04.862 Зубило тільки вирізьблювало, коли[br]митець спрямовував його. 0:02:05.343,0:02:10.984 І навіть найбільш прогресивні знаряддя[br]не роблять нічого без точного управління. 0:02:11.008,0:02:14.189 На сьогоднішнй день це те, що[br]виводить мене з рівноваги, 0:02:14.213,0:02:15.661 Ми завжди були обмежені 0:02:15.685,0:02:19.186 потребою вручну спрямовувати[br]наші бажання на інструменти - 0:02:19.210,0:02:21.507 вручну, в прямому сенсі[br]використовуючи руки, 0:02:21.531,0:02:22.959 навіть з комп'ютерами. 0:02:24.072,0:02:26.535 Але я ніби Скотті із "Зоряного шляху". 0:02:26.559,0:02:28.409 (Сміх) 0:02:28.433,0:02:30.579 Я хочу дискутувати з комп'ютером. 0:02:30.603,0:02:33.573 Я хочу сказати: "Комп'ютере,[br]давай спроектуємо машину," 0:02:33.597,0:02:35.136 і комп'ютер показує мені машину. 0:02:35.160,0:02:37.768 І я кажу: "Ні, більш спортивну і[br]менш німецьку," 0:02:37.792,0:02:39.955 і бац! комп'ютер показує[br]можливий варіант. 0:02:39.979,0:02:41.844 (Сміх) 0:02:42.208,0:02:44.514 Така дискусія могла бути[br]дещо неправильною, 0:02:44.538,0:02:47.203 можливо, менше, ніж багато хто думає, 0:02:47.227,0:02:48.990 але просто зараз 0:02:49.014,0:02:50.165 ми працюємо над цим. 0:02:50.189,0:02:54.222 Інструменти роблять стрибок з[br]пасивного до генеративного. 0:02:54.831,0:02:58.139 Генеративні інструменти дизайну[br]використовують комп'ютер і алгоритми, 0:02:58.163,0:03:00.771 щоб синтезувати геометричні фігури, 0:03:00.795,0:03:03.549 щоб придумати нові проекти[br]без сторонньої допомоги. 0:03:03.996,0:03:06.744 Все, що їм треба - це ваша ціль[br]і невеликий примус. 0:03:06.768,0:03:08.176 Я наведу приклад. 0:03:08.200,0:03:10.988 У випадку з шасі безпілотника 0:03:11.012,0:03:13.638 все, що вам треба зробити -[br]це сказати щось накшталт 0:03:13.662,0:03:14.935 він має чотири пропелери, 0:03:14.959,0:03:17.090 ви хочете, щоб він був якнайлегшим, 0:03:17.114,0:03:19.384 і вам треба, щоб він був[br]аеродинамічно ефективним. 0:03:19.408,0:03:24.322 Тоді комп'ютер досліджує[br]увесь простір вирішення: 0:03:24.346,0:03:28.273 кожна можливість, яка вирішує[br]і перетинається з вашим критерієм - 0:03:28.297,0:03:29.739 їх мільйони. 0:03:29.763,0:03:31.738 Щоб це зробити, треба[br]величезні комп'ютери. 0:03:31.762,0:03:33.717 Але ми отримуємо проекти, 0:03:33.741,0:03:36.884 які самі ніколи не змогли б[br]уявити. 0:03:37.326,0:03:40.238 І комп'ютери самі створюють такі речі - 0:03:40.262,0:03:41.940 ніхто нічого більше не малює, 0:03:41.964,0:03:44.050 і все починається повністю з нуля. 0:03:45.038,0:03:47.425 І, до речі, не катастрофічно те, 0:03:47.449,0:03:50.930 що дрон виглядає просто як[br]таз літаючої білки. 0:03:51.287,0:03:53.294 (Сміх) 0:03:54.040,0:03:56.342 Це тому, що алгоритми[br]призначені працювати 0:03:56.366,0:03:58.003 так само, як еволюція. 0:03:58.715,0:04:01.375 Захоплюючим є те, що ми починаємо[br]бачити цю технологію 0:04:01.399,0:04:02.558 в реальному світі. 0:04:02.582,0:04:05.034 Ми працюємо з компанією Airbus[br]кілька років 0:04:05.058,0:04:06.967 над концепцією літака майбутнього. 0:04:06.991,0:04:09.061 Це все ж вихід. 0:04:09.085,0:04:12.865 Але недавно ми використали[br]генеративний дизайн штучного інтелекту, 0:04:12.889,0:04:14.696 щоб досягти успіху в цьому. 0:04:15.609,0:04:20.762 Це надрукована на 3D-принтері перегородка,[br]що була спроектована комп'ютером. 0:04:20.786,0:04:23.610 Вона сильніша, ніж оригінал і при цьому[br]в два рази легша, 0:04:23.634,0:04:26.780 і вона буде літати в Airbus A320[br]вкінці цього року. 0:04:27.405,0:04:28.964 Комп'ютери вже можуть [br]генерувати; 0:04:28.988,0:04:33.583 вони можуть придумати власні рішення[br]до наших чітко визначених проблем. 0:04:34.677,0:04:35.987 Але вони не мають інтуїції. 0:04:36.011,0:04:39.097 Їм все ще треба кожного разу[br]починати з нуля, 0:04:39.121,0:04:41.686 і тому вони ніколи не вчаться. 0:04:42.368,0:04:44.134 На відміну від Меггі.[br] 0:04:44.158,0:04:45.739 (Сміх) 0:04:45.763,0:04:49.060 Насправді, Меггі розумніша, ніж[br]інші прогресивні засоби проектування. 0:04:49.467,0:04:50.907 Що я під цим маю на увазі? 0:04:50.931,0:04:52.521 Якщо її власник піднімає повідець, 0:04:52.545,0:04:54.613 Меггі знає з достатнім[br]рівнем впевненості, 0:04:54.637,0:04:56.041 що пора йти на прогулянку. 0:04:56.065,0:04:57.250 І як вона дізналась? 0:04:57.274,0:05:00.598 Кожного разу, коли власник піднімає[br]повідець, вони йдуть гуляти. 0:05:00.622,0:05:02.500 І Меггі виконує три речі: 0:05:02.524,0:05:04.393 вона має звернути увагу, 0:05:04.417,0:05:06.499 вона має пам'ятати, що сталося, 0:05:06.523,0:05:10.540 і вона має створити в свідомості модель[br]і запам'ятати її. 0:05:11.429,0:05:13.524 Цікаво, що це точно те, 0:05:13.548,0:05:16.071 що програмісти намагалися навчити[br]робити штучні інтелекти 0:05:16.095,0:05:17.954 приблизно останні 60 років. 0:05:18.683,0:05:20.032 Повернемося в 1952, 0:05:20.056,0:05:23.857 тобі зробили комп'ютер, який[br]міг грати у "Хрестики-нулики". 0:05:25.081,0:05:26.241 Велика справа. 0:05:27.029,0:05:30.029 Потім, через 45 років, в 1997-му році, 0:05:30.053,0:05:32.525 комп'ютер Deep Blue переміг[br]в шахи Каспарова. 0:05:34.046,0:05:39.014 У 2011 комп'ютер Watson переміг цих[br]двох людей у телевікторині Jeopardy, 0:05:39.038,0:05:41.966 де комп'ютеру набагато важче брати[br]участь, ніж грати в шахи. 0:05:41.990,0:05:45.802 Насправді, замість того, щоб працювати[br]за попередньо визначеними способами, 0:05:45.826,0:05:49.149 Watson довелося використовувати логіку,[br]щоб перемогти людей-опонентів. 0:05:50.393,0:05:52.832 І декілька тижнів тому 0:05:52.856,0:05:57.118 програма AlphaGo компанії DeepMind[br]перемогла найкращого в світі гравця Go, 0:05:57.142,0:05:59.354 найскладнішої гри, серед усіх, що ми маємо. 0:05:59.378,0:06:02.274 Насправді, в Go більше можливих ходів, 0:06:02.298,0:06:04.322 ніж атомів у всесвіті. 0:06:06.210,0:06:08.036 Тому для того, щоб виграти, 0:06:08.060,0:06:10.678 AlphaGo довелося розвинути[br]інтуїцію. 0:06:11.098,0:06:15.208 І насправді, в деякій мірі, програмісти[br]AlphaGo не розуміли, 0:06:15.232,0:06:17.518 чому AlphaGo робила те, що вона робила. 0:06:19.451,0:06:21.111 І справа рухається дуже швидко. 0:06:21.135,0:06:24.362 Я маю на увазі, подумайте -[br]в просторі людського життя 0:06:24.386,0:06:26.619 комп'ютери виросли від дитячої гри 0:06:27.920,0:06:30.968 до того, що визнано вершиною[br]стратегічного мислення. 0:06:31.999,0:06:34.416 Те, що в основному відбувається - 0:06:34.440,0:06:37.750 це комп'ютери, що спочатку[br]були, як Спок, 0:06:37.774,0:06:39.723 а потім стали, як Кірк. 0:06:39.747,0:06:43.365 (Сміх) 0:06:43.389,0:06:46.813 Так? Від бідної логіки до інтуїції. 0:06:48.184,0:06:49.927 Ви перейшли б цей місток? 0:06:50.609,0:06:52.932 Більшість з вас скажуть: "Ні, нізащо!" 0:06:52.956,0:06:54.264 (Сміх) 0:06:54.288,0:06:56.945 І ви прийшли до цього рішення[br]за долю секунди. 0:06:56.969,0:06:59.397 Ви просто знали,[br]що місток ненадійний. 0:06:59.421,0:07:01.410 І це саме той вид інтуїції, 0:07:01.434,0:07:05.002 який навчальні системи почали[br]зараз розвивати. 0:07:05.722,0:07:07.429 Дуже скоро ви буквально зможете 0:07:07.453,0:07:09.659 показати те, що ви зробили чи придумали, 0:07:09.683,0:07:10.836 комп'ютеру 0:07:10.860,0:07:12.349 і він подивиться на це і скаже: 0:07:12.373,0:07:15.196 "Вибач, але це ніколи не запрацює.[br]Мусиш спробувати ще раз." 0:07:15.854,0:07:18.924 Ви зможете запитати, чи сподобається[br]людям ваша наступна пісня 0:07:19.773,0:07:21.836 чи смак морозива. 0:07:23.549,0:07:26.128 Чи, набагато важливіше, 0:07:26.152,0:07:28.516 з комп'ютером зможете[br]вирішити проблеми, 0:07:28.540,0:07:30.177 з якими до цього ми не стикалися. 0:07:30.201,0:07:31.602 Наприклад, кліматичні зміни. 0:07:31.626,0:07:33.646 Ми нічого доброго самі не робимо, 0:07:33.670,0:07:35.915 ми могли б використати допомогу,[br]яку отримуємо. 0:07:35.939,0:07:37.397 Це те, про що я кажу, 0:07:37.421,0:07:39.976 техніка підсилює наші[br]пізнавальні здібності, 0:07:40.000,0:07:43.552 тому ми можемо уявити і створити речі,[br]які були недосяжними, 0:07:43.576,0:07:46.135 як прості примітивні люди. 0:07:47.984,0:07:50.925 То як щодо створення[br]цього божевільного нового продукту, 0:07:50.949,0:07:53.390 який ми збираємося винайти і спроектувати? 0:07:53.952,0:07:58.045 Думаю, ера "доповнення" людей такою ж[br]мірою стосується фізичного світу, 0:07:58.069,0:08:01.134 як і віртуальної та інтелектуальної[br]сфери. 0:08:01.833,0:08:03.754 Як технології доповнять нас? 0:08:04.261,0:08:06.734 У фізичному світі - роботизовані системи. 0:08:07.620,0:08:09.356 Звичайно, існує страх, 0:08:09.380,0:08:11.868 що роботи заберуть в людей роботу, 0:08:11.892,0:08:13.722 і це правда для деяких секторів. 0:08:14.174,0:08:17.052 Але мене набагато більше цікавить[br]ідея про те, 0:08:17.076,0:08:22.086 що люди і роботи, працюючи разом,[br]доповнять один одного 0:08:22.110,0:08:24.168 і почнуть заселяти новий простір. 0:08:24.192,0:08:26.554 Це наша галузева лабораторія[br]в Сан-Франциско, 0:08:26.578,0:08:29.720 де одним із напрямків роботи[br]є прогресивна роботизована, 0:08:29.744,0:08:32.255 співпраця людей і роботів. 0:08:33.034,0:08:35.793 А це Бішоп, один із наших роботів. 0:08:35.817,0:08:37.606 Як експеримент, ми встановили його, 0:08:37.630,0:08:41.090 щоб допомогти людині, яка працює [br]на будівництві, робити завдання, що повторюються, 0:08:41.984,0:08:46.178 як от вирізання отворів для розеток[br]вимикачів світла в гіпсокартоні. 0:08:46.202,0:08:48.668 (Сміх) 0:08:49.877,0:08:52.988 Партнер Бішопа може сказати, що[br]треба робити простою англійською 0:08:53.012,0:08:54.317 і з елементарними жестами, 0:08:54.341,0:08:55.788 ніби спілкуючись з собакою, 0:08:55.812,0:08:57.955 і тоді Бішоп виконує ці інструкції 0:08:57.979,0:08:59.871 з бездоганною точністю. 0:08:59.895,0:09:02.884 Ми використовуємо людей для того,[br]в чому вони розуміються: 0:09:02.908,0:09:05.241 усвідомленість, сприйняття і прийняття[br]рішень. 0:09:05.265,0:09:07.505 Ми використовуємо роботів в тому,[br]що вони вміють: 0:09:07.529,0:09:09.277 точність і повторюваність. 0:09:10.252,0:09:12.619 Це ще один крутий проект,[br]над яким працює Бішоп. 0:09:12.643,0:09:15.718 Мета цього проекту, який ми[br]назвали HIVE, 0:09:15.742,0:09:19.593 робити прототипи зовнішності[br]людей, комп'ютерів і роботів, 0:09:19.617,0:09:22.837 які працюють разом, щоб вирішити[br]складні конструкторські проблеми. 0:09:23.793,0:09:25.244 Люди працювали як робочий клас. 0:09:25.268,0:09:28.741 Вони роз'їжджали навколо будівельного[br]майданчика і працювали з бамбуком - 0:09:28.765,0:09:31.521 з яким, до речі, через неізоморфний[br]матеріал 0:09:31.545,0:09:33.419 роботам дуже важко працювати. 0:09:33.443,0:09:35.465 А роботи намотували[br]фіброволокно в котушки, 0:09:35.489,0:09:37.940 що людина здебільшого зробити не може. 0:09:37.964,0:09:41.585 І тоді у нас був штучний інтелект,[br]що контролював все. 0:09:41.609,0:09:44.899 Він казав людям що робити,[br]казав роботам що робити, 0:09:44.923,0:09:47.838 і відстежував тисячі[br]окремих компонентів. 0:09:47.862,0:09:49.042 Цікавим є те, 0:09:49.066,0:09:52.207 що будівництво цього павільйону[br]було просто неможливим 0:09:52.231,0:09:56.755 без людей, роботів та ШІ,[br]що доповнювали один одного. 0:09:57.890,0:10:01.210 Добре, поділюся з вами ще одним проектом.[br]Він дещо божевільний. 0:10:01.234,0:10:05.702 Ми працюємо з дизайнером з Амстердаму[br]Джорісом Лаарманом і його командою в MX3D, 0:10:05.726,0:10:08.604 щоб генеративно спланувати[br]і надрукувати з допомогою роботів 0:10:08.628,0:10:11.623 перший в світі автономно[br]виготовлений місток. 0:10:12.315,0:10:16.000 Джоріс та ШІ проектують цю річ[br]просто зараз, коли ми розмовляємо, 0:10:16.024,0:10:17.196 в Амстердамі. 0:10:17.220,0:10:19.541 І коли вони закінчать,[br]ми скажемо: "Пішли!" 0:10:19.565,0:10:22.876 і роботи почнуть 3D-друк[br]з нержавіючої сталі, 0:10:22.900,0:10:26.183 і тоді вони будуть друкувати[br]без людського втручання, 0:10:26.207,0:10:27.765 поки місток не буде готовий. 0:10:29.099,0:10:32.027 Так як комп'ютери[br]доповнять нашу здатність 0:10:32.051,0:10:34.201 уявляти і проектувати нові речі, 0:10:34.225,0:10:37.120 роботизовані системи допоможуть[br]будувати і створювати речі, 0:10:37.144,0:10:39.228 які ми не могли зробити до цього. 0:10:40.347,0:10:44.507 Але як щодо нашої здатності[br]відчувати і контролювати ці речі? 0:10:44.531,0:10:48.562 Як щодо нервової системи для[br]тих речей, які ми робимо? 0:10:48.586,0:10:51.098 Наша нервова система,[br]людська нервова система, 0:10:51.122,0:10:53.433 каже нам про все, що[br]відбувається навколо. 0:10:54.186,0:10:57.870 Але нервова система речей, які ми[br]робимо, в найкращому випадку елементарна. 0:10:57.894,0:11:01.457 Наприклад, автомобіль не повідомляє[br]відділу громадських робіт, 0:11:01.481,0:11:04.611 про те, що на розі Бродвей і Моррісон[br]з'явилась вибоїна. 0:11:04.635,0:11:06.667 Будівля не каже своїм конструкторам, 0:11:06.691,0:11:09.375 чи людям подобається знаходитися[br]всередині неї, 0:11:09.399,0:11:12.409 і виробник іграшки не знає, 0:11:12.433,0:11:14.440 чи з іграшкою насправді гралися - 0:11:14.464,0:11:17.003 як, де, і чи взагалі нею[br]весело гратися. 0:11:17.620,0:11:21.434 Я впевнений, що розробники[br]уявляли такий стиль життя для Барбі, 0:11:21.458,0:11:22.682 коли створювали її. 0:11:22.706,0:11:24.153 (Сміх) 0:11:24.177,0:11:27.083 Але якщо з'ясується, що Барбі насправді[br]дуже самотня? 0:11:27.107,0:11:30.254 (Сміх) 0:11:31.266,0:11:32.554 Якби розробники знали, 0:11:32.578,0:11:34.685 що насправді відбувається[br]в реальному світі 0:11:34.709,0:11:37.292 з їхніми виробами - дорогою,[br]будівлею, Барбі - 0:11:37.316,0:11:40.010 вони могли б використати ці знання,[br]щоб створити досвід, 0:11:40.034,0:11:41.434 що був би кращим для[br]користувача. 0:11:41.458,0:11:43.249 Не вистачає нервової системи, 0:11:43.273,0:11:46.982 що з'єднала б нас з усіма речами, які ми[br]проектуємо, створюємо і використовуємо. 0:11:47.915,0:11:51.470 Що, якби кожен з вас мав інформацію,[br]яка надходила б 0:11:51.494,0:11:53.677 від речей, які ви створили[br]в реальному світі? 0:11:55.432,0:11:56.883 На усі речі, які ми зробили, 0:11:56.907,0:11:59.342 ми витратили величезну кількість[br]грошей та енергії - 0:11:59.366,0:12:01.742 насправді, минулого року[br]близько двох мільйонів доларів - 0:12:01.766,0:12:04.620 переконуючи людей купити[br]речі, які ми зробили. 0:12:04.644,0:12:08.032 Але якщо у вас є зв'язок з речами,[br]які ви спроектували і створили 0:12:08.056,0:12:09.783 після того, як вони[br]потрапили в світ, 0:12:09.807,0:12:13.421 після їх продажу чи запуску, 0:12:13.445,0:12:15.065 ми могли б змінити це 0:12:15.089,0:12:18.136 і не змушувати купувати людей наші речі, 0:12:18.160,0:12:21.594 а просто робити те,[br]що їм найбільше потрібно. 0:12:21.618,0:12:24.405 Є хороша новина - ми працюємо[br]над цифровою нервовою системою, 0:12:24.429,0:12:27.230 що з'єднає нас з тим, що ми створили. 0:12:28.365,0:12:29.992 Ми працюємо над проектом 0:12:30.016,0:12:33.728 з декількома хлопцями з Лос-Анджелесу,[br]яких називають Bandito Brothers, 0:12:33.752,0:12:35.159 і їх командою. 0:12:35.183,0:12:38.616 І однією з речей, які роблять ці хлопці,[br]є створення божевільних машин, 0:12:38.640,0:12:41.513 які роблять абсолютно божевільні речі. 0:12:42.905,0:12:44.355 Ці хлопці ненормальні - 0:12:44.379,0:12:45.415 (Сміх) 0:12:45.439,0:12:46.842 в хорошому сенсі. 0:12:48.993,0:12:50.756 І ми разом з ними 0:12:50.780,0:12:53.220 забираємо традиційне шасі [br]з гоночної машини 0:12:53.244,0:12:54.829 і замінюємо його на нервову систему. 0:12:54.853,0:12:57.911 Ми здійснили це з десятками[br]сенсорних датчиків, 0:12:57.935,0:13:00.570 посадили за кермо водія світового класу, 0:13:00.594,0:13:03.951 доставили машину в пустелю[br]і тиждень бездумно її ганяли. 0:13:03.975,0:13:06.466 І нервова система автомобіля[br]запам'ятала все, 0:13:06.490,0:13:07.972 що з нею трапилося. 0:13:07.996,0:13:10.617 Ми зібрали чотири мільярди точок даних; 0:13:10.641,0:13:12.951 всі сили, які вплинули на систему. 0:13:12.975,0:13:14.634 І тоді ми зробили дещо скажене. 0:13:15.268,0:13:16.768 Ми взяли всю цю інформацію 0:13:16.792,0:13:20.528 і включили її в генеративно-проектуючий[br]ШІ, який назвали Dreamcatcher. 0:13:21.270,0:13:25.234 І що відбувається, коли ви даєте[br]засобу розробки нервову систему 0:13:25.258,0:13:28.140 і просите його побудувати[br]найкраще шасі для автомобіля? 0:13:28.723,0:13:30.696 Ви отримуєте його. 0:13:32.293,0:13:36.006 Це щось таке, що людина ніколи[br]не змогла б сконструювати. 0:13:36.707,0:13:38.595 За винятком людини,[br]яка спроектувала це, 0:13:38.619,0:13:42.928 але це була людина, яку доповнював[br]генеративно-проектувальний ШІ, 0:13:42.952,0:13:44.183 цифрова нервова система, 0:13:44.207,0:13:47.212 і роботи, які насправді можуть[br]винайти щось таке. 0:13:47.680,0:13:51.275 Тому, якщо в майбутньому,[br]в Доповненій епосі, 0:13:51.299,0:13:55.560 нас доповнять когнітивно,[br]фізично і емоційно, 0:13:55.584,0:13:56.992 як це буде виглядати? 0:13:57.576,0:14:00.897 На що буде схожий цей дивокрай? 0:14:00.921,0:14:02.630 Я думаю, ми побачимо світ, 0:14:02.654,0:14:05.722 де ми рухаємось від сфабрикованих речей 0:14:05.746,0:14:07.191 до винайдених. 0:14:08.159,0:14:11.612 Де ми рухаємось від сконструйованих речей 0:14:11.636,0:14:13.340 до вирощених. 0:14:14.134,0:14:16.322 Ми будемо рухатись від окремості 0:14:16.346,0:14:17.956 до єднання. 0:14:18.634,0:14:21.045 І ми будемо рухатися від добування 0:14:21.069,0:14:22.942 до агрегації. 0:14:23.967,0:14:27.734 Я думаю, що ми будемо переходити[br]від пристрасної покори своїм речам 0:14:27.758,0:14:29.399 до цінної незалежності. 0:14:30.510,0:14:32.415 Завдяки нашим доповненим можливостям 0:14:32.439,0:14:34.816 наш світ драматично зміниться. 0:14:35.576,0:14:38.822 У нас буде світ, де більше варіацій,[br]більше зв'язків, 0:14:38.846,0:14:41.133 більше динамізму, більше складності, 0:14:41.157,0:14:43.475 більше адаптованості та, звичайно, 0:14:43.499,0:14:44.716 більше краси. 0:14:45.231,0:14:46.795 Форма речей в майбутньому 0:14:46.819,0:14:49.109 не буде схожа на те, що ми[br]бачили до цього. 0:14:49.133,0:14:50.292 Чому? 0:14:50.316,0:14:54.071 Тому що те, що надасть форму речам -[br]це нові відносини 0:14:54.095,0:14:57.765 між технологіями, природою і людьми. 0:14:59.279,0:15:03.083 Тому, як на мене, майбутнє[br]треба чекати з нетерпінням. 0:15:03.107,0:15:04.378 Дуже дякую! 0:15:04.402,0:15:10.071 (Оплески)