0:00:00.735,0:00:03.024 Много ли среди вас изобретателей, 0:00:03.048,0:00:06.672 дизайнеров, инженеров,[br]предпринимателей, художников 0:00:06.696,0:00:09.083 или просто людей[br]с незаурядным воображением? 0:00:09.107,0:00:10.955 Поднимите руки! (Аплодисменты) 0:00:10.979,0:00:12.160 Большинство. 0:00:13.334,0:00:15.628 У меня есть новость[br]для нас, изобретателей. 0:00:16.714,0:00:19.287 В течение следующих 20 лет 0:00:21.471,0:00:24.444 то, как мы работаем, изменится больше, 0:00:25.382,0:00:27.539 чем за последние два тысячелетия. 0:00:28.511,0:00:33.139 Более того, я считаю, что мы на пороге[br]новой эры в истории человечества. 0:00:33.645,0:00:38.406 Известны четыре важные исторические эпохи,[br]различающиеся по характеру нашего труда. 0:00:39.404,0:00:42.679 Эпоха охотников-собирателей[br]длилась несколько миллионов лет. 0:00:43.163,0:00:46.739 Затем несколько тысячелетий[br]пришлись на эпоху земледелия. 0:00:47.195,0:00:50.685 Промышленная эпоха длилась пару столетий. 0:00:50.709,0:00:54.996 Современная информационная эпоха началась [br]всего несколько десятилетий назад. 0:00:55.020,0:01:00.240 И сейчас мы стои́м на пороге[br]новой великой эпохи развития человечества. 0:01:01.296,0:01:03.976 Добро пожаловать[br]в Эпоху совершенствования. 0:01:04.000,0:01:07.693 В эту новую эру естественные [br]способности человека будут расширены 0:01:07.717,0:01:10.689 вычислительными системами, [br]помогающими нам думать, 0:01:10.729,0:01:12.995 роботизированными системами,[br]помогающими делать, 0:01:13.019,0:01:14.667 и цифровой нервной системой, 0:01:14.691,0:01:18.381 выводящей нас далеко[br]за пределы обычных чувств. 0:01:19.377,0:01:21.253 Давайте начнём с расширения восприятия. 0:01:21.283,0:01:23.603 Кто из вас расширенный киборг? 0:01:24.133,0:01:26.783 (Смех) 0:01:26.807,0:01:29.628 Я на самом деле считаю,[br]что мы уже расширены. 0:01:30.288,0:01:31.792 Представьте: на вечеринке 0:01:31.816,0:01:35.336 кто-то задаёт вам вопрос, [br]на который вы не знаете ответа. 0:01:35.360,0:01:39.120 Имея вот такую штуку, вы найдёте[br]ответ за считанные секунды. 0:01:39.869,0:01:42.168 Но это только начало, ничего сложного. 0:01:42.863,0:01:46.194 Даже Siri — всего лишь[br]пассивный инструмент. 0:01:46.660,0:01:50.041 На самом деле, в течение последних[br]трёх с половиной миллионов лет 0:01:50.065,0:01:53.174 все используемые нами инструменты[br]были совершенно пассивными. 0:01:54.203,0:01:57.858 Они выполняли только то, [br]чтó мы от них требовали, не более. 0:01:57.882,0:02:00.983 Наш самый первый инструмент[br]резал только то, во что его втыкали. 0:02:01.822,0:02:04.862 Резак высекает только там,[br]куда его направляет мастер. 0:02:05.343,0:02:10.984 Даже самые современные инструменты[br]не работают без чёткого руководства. 0:02:11.008,0:02:14.189 Меня немного расстраивает то, [br]что до сегодняшнего дня 0:02:14.213,0:02:15.661 мы всегда были ограничены 0:02:15.685,0:02:19.186 этой необходимостью вручную вкладывать[br]наши задумки в наши инструменты — 0:02:19.210,0:02:21.507 [br]буквально руками, 0:02:21.531,0:02:22.959 даже в компьютеры. 0:02:24.072,0:02:26.535 Но я больше похож[br]на Скотти из «Звёздного пути». 0:02:26.559,0:02:28.409 (Смех) 0:02:28.433,0:02:30.579 Я хочу побеседовать с компьютером. 0:02:30.603,0:02:33.573 Я бы сказал: «Компьютер,[br]давай спроектируем автомобиль». 0:02:33.597,0:02:35.136 И он показал бы мне автомобиль. 0:02:35.160,0:02:37.768 Я сказал бы: «Нет, более быстрый[br]и не такой немецкий». 0:02:37.792,0:02:39.955 И — раз! Компьютер[br]выдаёт мне другой вариант. 0:02:39.979,0:02:41.844 (Смех) 0:02:42.208,0:02:44.514 До этого разговора ещё далеко, 0:02:44.538,0:02:47.203 хотя и меньше, чем многие думают, 0:02:47.227,0:02:48.990 однако мы уже сейчас 0:02:49.014,0:02:50.165 над этим работаем. 0:02:50.189,0:02:54.222 Инструменты перестают быть[br]пассивными и становятся активными. 0:02:54.831,0:02:58.309 На стадии разработки инструменты[br]используют компьютер и алгоритмы 0:02:58.309,0:03:00.771 для синтеза геометрических параметров, 0:03:00.795,0:03:03.549 чтобы создать свой дизайн. 0:03:03.996,0:03:06.824 Всё, что от вас требуется, — [br]определить цели и рамки. 0:03:06.824,0:03:08.176 Приведу пример. 0:03:08.200,0:03:10.988 Возьмём шасси квадрокоптера, 0:03:11.012,0:03:13.638 всё, что вам нужно, — это сказать:[br]у него должно быть 0:03:13.662,0:03:14.935 четыре пропеллера, 0:03:14.959,0:03:17.090 минимальный вес 0:03:17.114,0:03:19.384 и высокий аэродинамический КПД. 0:03:19.408,0:03:24.322 Затем компьютер анализирует[br]всевозможные способы решения: 0:03:24.346,0:03:28.273 любые варианты, которые решают задачу[br]и соответствуют вашим требованиям, — 0:03:28.297,0:03:29.739 а их миллионы. 0:03:29.763,0:03:31.738 Это под силу только новейшим компьютерам. 0:03:31.762,0:03:33.717 Но он предлагает нам проекты, 0:03:33.741,0:03:36.884 которые мы сами никогда бы не придумали. 0:03:37.326,0:03:40.238 А компьютер справляется [br]со всем этим самостоятельно, 0:03:40.262,0:03:41.940 никто не делал никаких эскизов, 0:03:41.964,0:03:44.050 и начинает он прямо с нуля. 0:03:45.038,0:03:47.425 Кстати, корпус дрона 0:03:47.449,0:03:50.930 не случайно напоминает [br]тазовые кости белки-летяги. 0:03:51.287,0:03:53.294 (Смех) 0:03:54.040,0:03:56.342 Причина в том, что алгоритмы работают 0:03:56.366,0:03:58.003 так же, как работает эволюция. 0:03:58.715,0:04:00.429 Интересно, что мы начинаем замечать, 0:04:00.429,0:04:02.558 как этот подход применяется в жизни. 0:04:02.582,0:04:05.034 С компанией Airbus [br]мы работаем несколько лет 0:04:05.058,0:04:06.967 над этой моделью самолёта будущего. 0:04:06.991,0:04:08.941 Пока это только проект. 0:04:09.085,0:04:12.865 Однако недавно,[br]чтобы справиться с этой задачей, 0:04:12.889,0:04:15.386 мы начали использовать ИИ[br]для генеративного дизайна. 0:04:15.609,0:04:20.762 Это трёхмерная модель перегородки кабины[br]самолёта, спроектированной компьютером. 0:04:20.786,0:04:23.610 Она прочнее и вдвое легче оригинала, 0:04:23.634,0:04:26.780 ею будет оснащён Airbus A320[br]в конце 2016 года. 0:04:27.405,0:04:29.124 Компьютеры способны создавать. 0:04:29.124,0:04:33.583 Они могут предлагать свои решения[br]наших конкретных задач. 0:04:34.677,0:04:35.987 Но им не хватает интуиции. 0:04:36.011,0:04:39.097 Они вынуждены каждый раз начинать с нуля. 0:04:39.121,0:04:41.686 И всё потому, что они не способны учиться. 0:04:42.368,0:04:44.134 В отличие от Мэгги. 0:04:44.158,0:04:45.739 (Смех) 0:04:45.763,0:04:49.060 Мэгги сообразительнее[br]самых продвинутых средств проектирования. 0:04:49.467,0:04:50.907 Что я имею в виду? 0:04:50.931,0:04:52.521 Когда хозяин берёт этот поводок, 0:04:52.545,0:04:54.613 Мэгги с полной уверенностью понимает, 0:04:54.637,0:04:56.041 что пора на прогулку. 0:04:56.065,0:04:57.250 Как она это запомнила? 0:04:57.274,0:05:00.598 Каждый раз, когда хозяин брал поводок,[br]они выходили на прогулку. 0:05:00.622,0:05:02.500 И Мэгги сделала три вещи: 0:05:02.524,0:05:04.393 ей нужно было обратить внимание, 0:05:04.417,0:05:06.499 ей нужно было запомнить, что произошло, 0:05:06.523,0:05:10.540 и ей нужно было создать и сохранить[br]в голове эту закономерность. 0:05:11.429,0:05:13.524 Любопытно, что именно этого 0:05:13.548,0:05:16.401 учёные добиваются от автоматической[br]системы посадки самолётов 0:05:16.431,0:05:18.494 на протяжении последних 60 лет. 0:05:18.694,0:05:20.032 Вспомним 1952 год: 0:05:20.056,0:05:23.857 тогда создали компьютер,[br]который мог играть в крестики-нолики. 0:05:25.081,0:05:26.241 Не шуточное дело. 0:05:27.029,0:05:30.029 Затем, 45 лет спустя, в 1997 году, 0:05:30.053,0:05:32.525 Deep Blue выигрывает[br]в шахматы у Каспарова. 0:05:34.046,0:05:39.014 В 2011 году Watson обыгрывает [br]двух мужчин в «Своей игре», 0:05:39.038,0:05:41.966 что для компьютера значительно[br]сложнее, чем игра в шахматы. 0:05:41.990,0:05:45.802 Для победы над оппонентами[br]Watson должен был применять логику, 0:05:45.826,0:05:49.149 а не действовать по заранее[br]заданным схемам. 0:05:50.393,0:05:52.832 Затем, пару недель назад 0:05:52.856,0:05:57.118 программа AlphaGo компании DeepMind[br]обыгрывает мирового чемпиона по Gо — 0:05:57.142,0:05:59.354 самой сложной из современных игр. 0:05:59.378,0:06:02.274 В игре Gо возможных ходов больше, 0:06:02.298,0:06:04.322 чем атомов во Вселенной. 0:06:06.210,0:06:08.036 Поэтому для того, чтобы победить, 0:06:08.060,0:06:10.678 AlphaGo нужно было развивать интуицию. 0:06:11.098,0:06:15.208 В какие-то моменты[br]создатели AlphaGo не понимали, 0:06:15.232,0:06:17.518 почему она делала то, что делала. 0:06:19.451,0:06:21.111 События развиваются очень быстро. 0:06:21.135,0:06:24.362 Я имею в виду, за всё время[br]существования человечества 0:06:24.386,0:06:26.619 компьютеры прошли путь от детской игры 0:06:27.920,0:06:30.968 до кульминации стратегического мышления. 0:06:31.999,0:06:34.416 Образно выражаясь, 0:06:34.440,0:06:37.750 компьютер был, как Спок, 0:06:37.774,0:06:39.723 а стал, как Кирк. 0:06:39.747,0:06:43.365 (Смех) 0:06:43.389,0:06:46.813 Правда же? От простой логики до интуиции. 0:06:48.184,0:06:49.927 Вы бы смогли перейти этот мост? 0:06:50.609,0:06:52.932 Многие скажут: «Чёрт, конечно же, нет!» 0:06:52.956,0:06:54.264 (Смех) 0:06:54.288,0:06:56.945 Вы приняли это решение за долю секунды. 0:06:56.969,0:06:59.397 Вы просто догадались,[br]что тот мост небезопасен. 0:06:59.421,0:07:01.410 Это и есть та самая интуиция, 0:07:01.434,0:07:05.002 которая начинает развиваться[br]в наших системах глубинного обучения. 0:07:05.582,0:07:07.183 Вскоре вы фактически сможете 0:07:07.183,0:07:08.623 показать компьютеру, 0:07:08.623,0:07:10.140 чтó вы сделали, спроектировали, 0:07:10.140,0:07:11.543 посмотрев на что, он скажет: 0:07:11.543,0:07:15.196 «Извини, друг, но так не пойдёт.[br]Попробуй ещё раз». 0:07:15.854,0:07:18.924 Или вы сможете спросить,[br]понравится ли кому-нибудь 0:07:19.773,0:07:21.836 ваша новая песня [br]или новый сорт мороженого. 0:07:23.549,0:07:26.102 Или, что более важно, 0:07:26.132,0:07:28.210 вы можете сотрудничать с компьютером 0:07:28.230,0:07:30.177 для решения проблемы совсем нового типа. 0:07:30.201,0:07:31.602 Например, изменение климата. 0:07:31.626,0:07:33.636 Самостоятельно у нас[br]получается плоховато, 0:07:33.666,0:07:35.765 любая помощь нам явно не помешает. 0:07:35.939,0:07:37.397 Вот о чём я говорю — [br] 0:07:37.421,0:07:39.976 технологии расширяют наши[br]познавательные способности, 0:07:40.000,0:07:43.552 и мы можем придумать и сделать то,[br]что было бы невозможно 0:07:43.576,0:07:46.375 для человека, имеющего лишь[br]традиционные возможности. 0:07:47.984,0:07:50.925 Как же сделать все те безумные новые вещи, 0:07:50.949,0:07:53.390 которые мы собираемся[br]изобретать и проектировать? 0:07:53.952,0:07:58.045 Я думаю, эра совершенствования человека[br]затронет не только физическую сторону, 0:07:58.069,0:08:01.134 но и коснётся виртуальной[br]и интеллектуальной сферы. 0:08:01.833,0:08:03.754 Как технологии расширят нас? 0:08:04.261,0:08:06.734 В физическом мире —[br]роботизированными системами. 0:08:07.620,0:08:09.350 Есть опасение, 0:08:09.380,0:08:11.868 что роботы займут [br]наши места на производстве, 0:08:11.892,0:08:13.722 и это реально в определённых областях. 0:08:14.174,0:08:17.052 Но меня больше интересует то, 0:08:17.076,0:08:22.086 как роботам и людям работать сообща,[br]увеличивая потенциал друг друга 0:08:22.110,0:08:24.168 и сосуществуя в новом общем пространстве. 0:08:24.192,0:08:26.654 Это наша прикладная лаборатория[br]в Сан-Франциско, 0:08:26.654,0:08:29.720 одно из направлений которой — [br]развитие робототехники, а именно: 0:08:29.744,0:08:32.255 взаимодействие робота с человеком. 0:08:33.034,0:08:35.793 Вот один из наших роботов,[br]его зовут Бишоп. 0:08:35.817,0:08:37.606 В качестве экперимента[br]мы настоили его 0:08:37.630,0:08:41.090 на помощь человеку при выполнении[br]монотонных строительных работ, 0:08:41.984,0:08:46.178 например, вырезать отверстия для розеток[br]или выключателей в гипсокартоне. 0:08:46.202,0:08:48.668 (Смех) 0:08:49.877,0:08:52.988 Человек-партнёр на простом языке[br]объясняет Бишопу, что делать, 0:08:53.012,0:08:54.317 используя простые жесты, 0:08:54.341,0:08:55.788 как при дрессировке собак, 0:08:55.812,0:08:57.955 и Бишоп выполняет задания 0:08:57.979,0:08:59.871 с особой точностью. 0:08:59.895,0:09:02.884 Мы используем человека там,[br]где нужны его способности: 0:09:02.908,0:09:05.241 осознание, восприятие, принятие решений. 0:09:05.265,0:09:07.505 А роботам легко даётся 0:09:07.529,0:09:09.277 точность и монотонность. 0:09:10.252,0:09:12.619 Следующий классный проект для Бишопа. 0:09:12.643,0:09:15.718 Цель этого проекта[br]под названием HIVE, то есть Улей, — 0:09:15.742,0:09:19.593 заставить взаимодействовать[br]людей, компьютеров и роботов, 0:09:19.617,0:09:22.837 чтобы вместе решить[br]сложную конструкторскую задачу. 0:09:23.793,0:09:25.244 Человек — это рабочая сила. 0:09:25.268,0:09:28.741 Он исследует место будущей постройки,[br]манипулирует с бамбуком, 0:09:28.765,0:09:31.521 который неоднороден по форме, 0:09:31.545,0:09:33.163 что создаёт сложности для роботов. 0:09:33.163,0:09:35.465 Затем роботы создают переплёт из проводов, 0:09:35.489,0:09:37.940 что человеку практически не под силу. 0:09:37.964,0:09:41.585 И ещё у нас есть искусственный интеллект,[br]который всё это контролирует. 0:09:41.609,0:09:44.899 Он даёт указания и роботу, и человеку,[br]что они должны делать, 0:09:44.923,0:09:47.838 а также запоминает тысячи[br]индивидуальных компонентов. 0:09:47.862,0:09:49.042 И что интересно, 0:09:49.066,0:09:52.207 строительство здания [br]было бы невозможным, 0:09:52.231,0:09:56.755 если бы человек, робот и ИИ[br]не работали над ним сообща. 0:09:57.890,0:10:01.210 Ещё один проект: он немного сумасшедший. 0:10:01.234,0:10:05.702 Вместе с Йорисом Ларманом и его командой[br]из Амстердама мы работаем в MX3D 0:10:05.726,0:10:08.604 над созданием дизайна и осуществления 0:10:08.628,0:10:11.623 первого в мире автономно созданного моста. 0:10:12.315,0:10:16.000 Пока мы с вами разговариваем,[br]Йорис и ИИ, прямо сейчас работают 0:10:16.024,0:10:17.196 в Амстердаме. 0:10:17.220,0:10:19.541 Когда они будут готовы, мы нажмём: «Пуск», 0:10:19.565,0:10:22.876 и роботы начнут печатать[br]3D-модель из нержавеющей стали 0:10:22.900,0:10:26.183 и будут продолжать печать уже[br]без вмешательства человека, 0:10:26.207,0:10:27.765 пока мост не будет готов. 0:10:29.099,0:10:32.027 Когда компьютеры расширят наши способности 0:10:32.051,0:10:34.201 по придумыванию и созданию нового, 0:10:34.225,0:10:37.120 роботы помогут нам [br]воплотить в реальность то, 0:10:37.144,0:10:39.228 что мы самостоятельно[br]не смогли бы сделать. 0:10:40.347,0:10:44.507 А как насчёт наших возможностей[br]понимать и контролировать всё это? 0:10:44.531,0:10:48.562 Не нужна ли для этого нервная система? 0:10:48.586,0:10:51.098 Наша человеческая нервная система 0:10:51.122,0:10:53.433 объясняет нам, что происходит вокруг. 0:10:54.186,0:10:57.870 А нервная система создаваемых[br]нами предметов простейшая. 0:10:57.894,0:11:01.457 Например, автомобиль не скажет[br]городскому муниципалитету, 0:11:01.481,0:11:04.611 что он только что попал в яму[br]на углу Бродвея и Моррисона. 0:11:04.635,0:11:06.667 Здание не скажет архитекторам, 0:11:06.691,0:11:09.375 нравится ли людям находиться внутри него, 0:11:09.399,0:11:12.409 а производитель игрушек не знает точно, 0:11:12.433,0:11:14.440 будут ли с его игрушками играть: 0:11:14.464,0:11:17.273 как, где, когда и понравятся ли они детям. 0:11:17.620,0:11:21.434 Уверен, дизайнеры Барби,[br]когда её придумывали, 0:11:21.458,0:11:22.682 воображали себе вот это. 0:11:22.706,0:11:24.153 (Смех) 0:11:24.177,0:11:27.083 А что случится, если Барби[br]станет никому не нужна? 0:11:27.107,0:11:30.254 (Смех) 0:11:31.266,0:11:32.554 Если бы дизайнеры знали, 0:11:32.578,0:11:34.685 что на самом деле произойдёт[br]в реальном мире 0:11:34.709,0:11:37.292 с их детищем: дорогами, зданиями, Барби, 0:11:37.316,0:11:40.010 они бы использовали эти знания 0:11:40.034,0:11:41.434 на благо их потребителя. 0:11:41.458,0:11:43.249 Именно нервной системы и не хватает, 0:11:43.273,0:11:46.982 чтобы соединить нас со всем тем,[br]что мы создаём и используем. 0:11:47.915,0:11:51.470 Что, если бы вы получали[br]такую информацию от вещей, 0:11:51.494,0:11:53.677 которые вы создаёте в реальном мире? 0:11:55.432,0:11:56.883 На всё то, что мы делаем, 0:11:56.907,0:11:59.342 мы тратим огромные деньги и энергию — 0:11:59.366,0:12:01.852 за 2015 год мы потратили [br]два триллиона долларов — 0:12:01.852,0:12:04.620 убеждая людей купить то, что мы создали. 0:12:04.644,0:12:08.032 Но если у вас есть эта связь[br]с вашим созданием, после того, 0:12:08.056,0:12:09.783 как оно оказалось в реальном мире, 0:12:09.807,0:12:13.421 после того, как его купили, установили, 0:12:13.445,0:12:15.065 мы можем изменить положение вещей:[br] 0:12:15.089,0:12:18.136 нужно не людей заставлять покупать, 0:12:18.160,0:12:21.594 а сделать товар, который бы[br]захотели купить. 0:12:21.618,0:12:24.405 Хорошая новость: мы работаем[br]над цифровой нервной системой, 0:12:24.429,0:12:27.230 которая обеспечит связь[br]с тем, что мы проектируем. 0:12:28.365,0:12:29.992 Мы работаем над проектом 0:12:30.016,0:12:33.728 с парочкой ребят из Лос Анджелеса —[br]Bandito Brothers 0:12:33.752,0:12:35.159 и их командой. 0:12:35.183,0:12:38.616 Эти парни создают безумные автомобили, 0:12:38.640,0:12:41.513 способные на абсолютно нереальные вещи. 0:12:42.905,0:12:44.355 Они просто сумасшедшие, 0:12:44.379,0:12:45.415 (Смех) 0:12:45.439,0:12:46.842 в хорошем смысле этого слова. 0:12:48.993,0:12:50.730 Мы берём традиционные ходовые части 0:12:50.730,0:12:52.230 для гоночных болидов 0:12:52.250,0:12:54.829 и приделываем к ним нервную систему. 0:12:54.853,0:12:57.911 То есть мы снабдили её десятками датчиков, 0:12:57.935,0:13:00.570 за руль посадили первоклассного гонщика, 0:13:00.594,0:13:03.951 пригнали её в пустыню и всю неделю [br]гоняли её с бешеной скоростью. 0:13:03.975,0:13:06.466 Мозг автомобиля заметил всё, 0:13:06.490,0:13:07.972 что с ним происходило. 0:13:07.996,0:13:10.617 Мы зафиксировали [br]4 миллиарда базовых координат, 0:13:10.641,0:13:12.951 а также все силы, [br]которым машина подвергалась. 0:13:12.975,0:13:14.764 Потом мы сделали кое-что нереальное. 0:13:15.268,0:13:16.768 Мы все эти данные поместили 0:13:16.792,0:13:20.528 в ИИ под названием «Dreamcatcher»,[br]то есть «Ловец снов». 0:13:21.270,0:13:25.234 Что будет, если вы снабдите[br]инструмент дизайна мозгом 0:13:25.258,0:13:28.140 и попросите его создать [br]сверхпрочный автомобиль? 0:13:28.723,0:13:30.696 Вы получите это. 0:13:32.293,0:13:36.006 Это то, что человек никогда бы не создал. 0:13:36.707,0:13:38.595 Но всё-таки это создал человек, 0:13:38.619,0:13:42.928 который до этого создал ИИ, 0:13:42.952,0:13:44.183 цифровую нервную систему 0:13:44.207,0:13:47.212 и роботов, и в итоге получил то,[br]что мы имеем сегодня. 0:13:47.680,0:13:51.275 Если Эпоха совершенствования —[br]это наше будущее, 0:13:51.299,0:13:55.560 и мы станем лучше в умственной,[br]физической и сенсорной сферах, 0:13:55.584,0:13:56.992 как это всё будет выглядеть? 0:13:57.576,0:14:00.897 Какой будет эта страна чудес? 0:14:00.921,0:14:02.630 Я думаю, это будет мир, 0:14:02.654,0:14:05.722 где мы переходим от производства вещей 0:14:05.746,0:14:07.191 к их выращиванию. 0:14:08.159,0:14:11.612 Где мы переходим от производимых вещей 0:14:11.636,0:14:13.340 к выращенным. 0:14:14.134,0:14:16.322 Мы перестанем быть изолированными 0:14:16.346,0:14:17.956 и начнём взаимодействовать. 0:14:18.634,0:14:21.045 Мы пойдём по пути от извлечения 0:14:21.069,0:14:22.942 к объединению. 0:14:23.967,0:14:27.734 Мы перестанем требовать[br]от вещей покорности 0:14:27.758,0:14:29.689 и научимся ценить их самостоятельность. 0:14:30.510,0:14:32.415 Благодаря нашим новым возможностям, 0:14:32.439,0:14:34.816 наш мир изменится кардинальным образом. 0:14:35.576,0:14:38.822 В мире, который мы создадим,[br]будет больше разнообразия и взаимосвязи, 0:14:38.846,0:14:41.133 больше активности, многогранности, 0:14:41.157,0:14:43.475 гибкости и, конечно же, 0:14:43.499,0:14:44.716 красоты. 0:14:45.231,0:14:46.795 То, к чему мы придём, 0:14:46.819,0:14:49.109 будет не похоже ни на что, [br]известное нам ранее. 0:14:49.133,0:14:50.292 Почему? 0:14:50.316,0:14:54.071 Потому что мы соединим воедино 0:14:54.095,0:14:57.765 технологии, природу и человека. 0:14:59.279,0:15:03.083 Это то, ради чего стóит жить. 0:15:03.107,0:15:04.378 Большое спасибо. 0:15:04.402,0:15:10.071 (Аплодисменты)