0:00:10.847,0:00:13.799 Что ж, Портленд, ух ты![br]Большое спасибо за приглашение. 0:00:14.038,0:00:15.498 Люблю приезжать в этот город. 0:00:15.522,0:00:18.625 Ну где ещё в мире у меня[br]может быть подобный завтрак? 0:00:18.649,0:00:20.315 (Смех) 0:00:20.339,0:00:23.632 И, несомненно, это[br]очень необычное место. 0:00:23.815,0:00:25.111 (Смех) 0:00:25.135,0:00:27.424 Сколько среди вас художников, 0:00:27.448,0:00:31.072 дизайнеров, инженеров,[br]предпринимателей, артистов, 0:00:31.096,0:00:33.483 или вы просто обладаете[br]богатым воображением? 0:00:33.507,0:00:35.355 Подни́мите руки?[br](Одобрительные возгласы) 0:00:35.379,0:00:36.560 Большинство из вас. 0:00:37.734,0:00:40.028 У меня есть новости для нас,[br]людей творческих. 0:00:41.114,0:00:43.687 На протяжении следующих 20-ти лет 0:00:45.871,0:00:48.844 произойдёт больше изменений[br]в том, как мы работаем, 0:00:49.782,0:00:51.939 чем за последние два тысячелетия. 0:00:52.768,0:00:57.396 Фактически, я думаю, мы на рассвете[br]новой эры человеческой истории. 0:00:58.045,0:01:02.624 Существует 4 главных исторических эпохи,[br]определяемых нашем стилем работы. 0:01:03.804,0:01:07.079 Эпоха охотников и собирателей,[br]продлившаяся несколько миллионов лет. 0:01:07.563,0:01:11.139 Следом — сельскохозяйственная эпоха,[br]протяжённостью в несколько тысяч. 0:01:11.405,0:01:14.895 Промышленная, длиной в пару столетий. 0:01:14.919,0:01:18.728 Наконец, информационная эпоха,[br]длившаяся всего несколько десятилетий. 0:01:19.230,0:01:24.450 И вот сегодня мы на грани следующей,[br]величайшей эпохи для нас как вида. 0:01:25.506,0:01:28.186 Добро пожаловать[br]в Эпоху совершенствования. 0:01:28.210,0:01:31.903 В этой новой эпохе ваши естественные[br]человеческие возможности будут улучшены 0:01:31.927,0:01:34.995 вычислительными системами,[br]помогающими вам думать; 0:01:35.119,0:01:37.305 системами роботизации,[br]помогающими вам творить; 0:01:37.329,0:01:38.977 и электронными нервными системами, 0:01:39.001,0:01:42.691 соединяющими вас с миром, лежащим далеко[br]за рамками естественного восприятия. 0:01:44.947,0:01:46.889 Давайте начнём с улучшения восприятия. 0:01:46.913,0:01:49.113 Сколько среди вас улучшенных киборгов? 0:01:49.270,0:01:51.545 (Смех) 0:01:51.569,0:01:53.084 Ладно, трое или четверо из вас, 0:01:53.108,0:01:54.791 просто потому, что это Портленд. 0:01:54.815,0:01:58.025 (Смех) 0:01:58.049,0:01:59.231 Оставайтесь странными. 0:01:59.255,0:02:01.543 (Смех) 0:02:01.567,0:02:04.388 Я бы, на самом деле, поспорил,[br]что мы уже улучшены. 0:02:05.048,0:02:06.552 Представьте себя на вечеринке, 0:02:06.576,0:02:10.096 где кто-то задаёт вам вопрос,[br]ответ на который вы не знаете. 0:02:10.120,0:02:13.880 Если у вас при себе одна из этих штук,[br]через несколько секунд вы узнаете ответ. 0:02:14.629,0:02:16.928 Но это всего-навсего примитивное начало. 0:02:17.623,0:02:20.954 Даже Сири всего лишь пассивный инструмент. 0:02:21.420,0:02:24.801 Фактически, на протяжении[br]трёх с половиной миллионов лет 0:02:24.825,0:02:28.348 инструменты, которые мы использовали,[br]были абсолютно пассивны. 0:02:29.563,0:02:33.218 Они делают ровно то, что мы[br]говорим им сделать, и ничего более. 0:02:33.242,0:02:36.343 Наш самый первый инструмент[br]лишь рубил там, где мы им ударяли. 0:02:37.382,0:02:40.422 Резец режет только там,[br]куда указывает гравировщик. 0:02:40.818,0:02:46.544 И даже наши наиболее передовые инструменты[br]не делают ничего без наших явных указаний. 0:02:47.598,0:02:50.779 Фактически, до сих пор —[br]и это меня сильно расстраивает — 0:02:50.803,0:02:52.251 мы всегда были ограничены 0:02:52.275,0:02:55.776 этой необходимостью вручную помещать[br]наши намерения в наши инструменты — 0:02:55.800,0:02:58.097 буквально используя наши руки, 0:02:58.121,0:02:59.549 даже с компьютерами. 0:03:00.662,0:03:03.125 Но я больше похож на Скотти[br]из «Звёздного пути». 0:03:03.149,0:03:04.999 (Смех) 0:03:05.023,0:03:07.169 Я хочу беседовать с компьютером. 0:03:07.193,0:03:10.163 Я хочу сказать: «Компьютер,[br]давай спроектируем автомобиль», 0:03:10.187,0:03:11.726 и компьютер показывает его мне. 0:03:11.750,0:03:14.358 Я говорю: «Нет, более быстрый[br]на вид и менее немецкий», 0:03:14.382,0:03:16.545 и — хлоп, компьютер[br]показывает мне вариант. 0:03:16.569,0:03:18.434 (Смех) 0:03:18.798,0:03:21.104 До такого диалога, возможно, далеко, 0:03:21.128,0:03:23.793 хотя и ближе, чем многие из нас думают, 0:03:23.817,0:03:25.580 но прямо сейчас 0:03:25.604,0:03:26.755 мы над этим работаем. 0:03:26.779,0:03:30.812 Инструменты совершают этот скачок[br]от пассивного состояния к производящему. 0:03:31.421,0:03:36.069 Генеративные конструкторские инструменты[br]используют компьютер и алгоритмы 0:03:36.093,0:03:38.901 для получения геометрических элементов 0:03:38.925,0:03:41.679 для создания новых конструкций,[br]всё самостоятельно. 0:03:42.096,0:03:44.874 Всё, что требуется — это[br]ваши цели и заданные вами пределы. 0:03:44.898,0:03:46.306 Я приведу вам пример. 0:03:46.330,0:03:49.118 В случае с корпусом этого[br]воздушного беспилотника, 0:03:49.142,0:03:51.768 всё, что вам следовало бы сделать —[br]сказать нечто вроде: 0:03:51.792,0:03:53.065 у него четыре пропеллера, 0:03:53.089,0:03:55.220 он должен быть таким лёгким,[br]каким возможно, 0:03:55.244,0:03:57.514 и он должен быть[br]аэродинамически эффективным. 0:03:57.538,0:04:02.452 После этого компьютер исследует[br]всё пространство решений: 0:04:02.476,0:04:06.403 каждую возможность, которая решаема[br]и отвечает вашим критериям — 0:04:06.427,0:04:07.869 миллионы из них. 0:04:07.893,0:04:09.868 Для этого требуются мощные компьютеры. 0:04:09.892,0:04:11.847 Но после мы получаем конструкции, 0:04:11.871,0:04:15.014 которые мы сами никогда бы[br]не смогли вообразить. 0:04:15.456,0:04:18.368 И компьютер находит все[br]эти решения самостоятельно — 0:04:18.392,0:04:20.070 никто никогда ничего не чертил, 0:04:20.094,0:04:22.180 работа была начата полностью с нуля. 0:04:23.168,0:04:25.555 И, между прочим, это не случайность, 0:04:25.579,0:04:29.060 что корпус беспилотника выглядит[br]точно как тазовая кость белки-летяги. 0:04:29.231,0:04:32.146 (Смех) 0:04:32.170,0:04:34.472 Это потому что написанные [br]алгоритмы работают 0:04:34.496,0:04:36.133 так же, как эволюционные процессы. 0:04:37.045,0:04:39.705 Захватывающе то, что мы[br]начинаем видеть эту технологию 0:04:39.729,0:04:40.888 в реальном мире. 0:04:40.912,0:04:43.364 Мы пару лет работаем с компанией Airbus 0:04:43.388,0:04:45.297 над конфигурацией самолёта будущего. 0:04:45.321,0:04:47.391 Он всё ещё очень далеко. 0:04:47.415,0:04:51.195 Но только недавно мы обратились к ИИ[br]для генеративного проектирования, 0:04:51.219,0:04:53.026 чтобы придумать вот это. 0:04:53.939,0:04:59.092 Эта часть кабины, напечатанная на[br]3D-принтере, спроектирована компьютером. 0:04:59.116,0:05:01.940 Она прочнее оригинала и вполовину легче, 0:05:01.964,0:05:05.110 и она будет летать на Airbus A320[br]уже в 2016 году. 0:05:06.835,0:05:09.024 Так что теперь компьютеры умеют создавать, 0:05:09.048,0:05:13.643 они могут предлагать собственные решения[br]для наших чётко сформулированных задач. 0:05:14.737,0:05:16.047 Но у них нет интуиции. 0:05:16.071,0:05:19.157 Компьютеры всё ещё всякий раз[br]должны начинать с нуля, 0:05:19.181,0:05:21.871 и это оттого, что они никогда не учатся. 0:05:22.768,0:05:24.534 В отличие от Мэгги. 0:05:24.558,0:05:26.139 (Смех) 0:05:26.163,0:05:29.460 На самом деле, Мэгги умнее наших самых[br]передовых средств разработки. 0:05:29.867,0:05:31.367 Что я имею под этим в виду? 0:05:31.391,0:05:32.981 Если её хозяин берёт поводок, 0:05:33.005,0:05:35.073 Мэгги знает,[br]с достаточной уверенностью, 0:05:35.097,0:05:36.501 что пришло время идти гулять. 0:05:36.525,0:05:37.710 И как же она обучилась? 0:05:37.734,0:05:41.058 Всякий раз, когда хозяин[br]брал поводок, они шли гулять. 0:05:41.082,0:05:42.960 И Мэгги делала 3 вещи: 0:05:42.984,0:05:44.853 она должна была обратить внимание, 0:05:44.877,0:05:46.959 она должна была запомнить,[br]что происходило, 0:05:46.983,0:05:51.000 и она должна была удержать и сохранить[br]эту последовательность в своём сознании. 0:05:51.889,0:05:53.984 Интересно, что это именно то, 0:05:54.008,0:05:56.531 что программисты пытались[br]добиться от систем ИИ 0:05:56.555,0:05:58.414 за последние 60, или около того, лет. 0:05:59.783,0:06:01.132 В далёком 1952 году 0:06:01.156,0:06:04.957 они построили этот компьютер,[br]который мог играть в «Крестики-нолики». 0:06:06.181,0:06:07.341 Важное занятие. 0:06:08.129,0:06:11.129 Затем, 45 лет спустя, в 1997 году, 0:06:11.153,0:06:13.625 Deep Blue выиграл у Каспарова в шахматы. 0:06:15.146,0:06:20.114 2011 год: Watson побеждает[br]этих двух человек в «Свою игру», 0:06:20.138,0:06:23.066 которая для компьютера[br]значительно сложнее шахмат. 0:06:23.090,0:06:26.902 Фактически, вместо того, чтобы исходить[br]из заранее определённых методов, 0:06:26.926,0:06:30.249 Watson должен был использовать[br]рассуждения для победы над оппонентами. 0:06:31.493,0:06:33.932 И затем, пару недель назад, 0:06:33.956,0:06:38.218 программа AlphaGo компании DeepMinds[br]победила лучшего в мире игрока в Го, 0:06:38.242,0:06:40.454 самую сложную из существующих у нас игр. 0:06:40.478,0:06:43.974 Фактически, в Го больше возможных ходов, 0:06:43.998,0:06:46.022 чем атомов во Вселенной. 0:06:47.910,0:06:49.736 Поэтому для того, чтобы выиграть, 0:06:49.760,0:06:52.774 AlphaGo должна была развить интуицию. 0:06:52.798,0:06:56.908 И более того, в некоторые моменты,[br]программист AlphaGo не понимал, 0:06:56.932,0:06:59.218 почему программа делала то,[br]что она делала. 0:07:01.151,0:07:02.811 И всё происходит очень быстро. 0:07:02.835,0:07:06.082 Я имею в виду, обратите внимание:[br]в пределах одной человеческой жизни 0:07:06.106,0:07:08.319 компьютеры прошли путь от детской игры 0:07:09.620,0:07:12.668 к тому, что признано вершиной[br]стратегического мышления. 0:07:13.699,0:07:16.116 Что, в общем-то, происходит, 0:07:16.140,0:07:19.450 так это то, что компьютеры движутся[br]от схожести со Споком... 0:07:20.474,0:07:22.423 к тому, чтобы сильнее походить на Кирка. 0:07:22.447,0:07:26.065 (Смех) 0:07:26.089,0:07:29.513 Верно? От чистой логики к интуиции. 0:07:31.584,0:07:33.327 Вы бы ступили на этот мост? 0:07:33.949,0:07:36.332 Большинство из вас думает:[br]«О, чёрт, конечно, нет!» 0:07:36.356,0:07:37.664 (Смех) 0:07:37.688,0:07:40.345 И вы пришли к этому решению[br]за долю секунды. 0:07:40.369,0:07:42.797 Вы просто как бы знали,[br]что мост небезопасен. 0:07:42.821,0:07:44.810 И это тот самый частный случай интуиции, 0:07:44.834,0:07:48.402 которую наши системы глубинного обучения[br]начинают развивать прямо сейчас. 0:07:49.122,0:07:50.829 Очень скоро вы буквально сумеете 0:07:50.853,0:07:53.782 показать компьютеру что-то,[br]что сделали, спроектировали, 0:07:53.806,0:07:55.439 и он посмотрит на это и скажет: 0:07:55.463,0:07:58.286 «Извини, чувак, это не сработает.[br]Попробуй ещё раз». 0:07:59.254,0:08:02.324 Или вы могли бы спросить,[br]понравится ли людям ваша новая песня 0:08:03.173,0:08:05.236 или ваш следующий вкус мороженого. 0:08:06.949,0:08:09.528 Или, что гораздо важнее, 0:08:09.552,0:08:11.916 вы могли бы работать[br]с компьютером над задачей, 0:08:11.940,0:08:13.577 с которой никогда не сталкивались. 0:08:13.601,0:08:15.002 Например, изменение климата. 0:08:15.026,0:08:17.046 В одиночку у нас плохо получается, 0:08:17.070,0:08:19.405 мы определённо нуждаемся[br]в любой доступной помощи. 0:08:19.425,0:08:20.797 И это то, о чём я говорю. 0:08:20.821,0:08:23.376 Технология усиливает наши[br]познавательные способности, 0:08:23.400,0:08:26.952 чтобы мы могли представить и создать вещи,[br]которые были для нас недоступны, 0:08:26.976,0:08:29.535 как для прежних[br]неусовершенствованных людей. 0:08:31.384,0:08:34.325 Ну а как насчёт реализации[br]всех этих безумных вещей, 0:08:34.349,0:08:36.790 которые мы собираемся изобрести[br]и сконструировать? 0:08:37.352,0:08:41.445 Думаю, что эра совершенствования человека[br]в той же мере касается реального мира, 0:08:41.469,0:08:44.534 в какой затрагивает виртуальную[br]и интеллектуальную сферы. 0:08:45.233,0:08:47.154 Как же усилят нас технологии? 0:08:47.565,0:08:50.038 В реальном мире —[br]роботизированными системами. 0:08:51.620,0:08:53.356 Конечно, существует опасение, 0:08:53.380,0:08:55.868 что роботы могут отнять у людей работу, 0:08:55.892,0:08:57.722 и это верно для определённых областей. 0:08:58.174,0:09:01.052 Но я куда более заинтересован идеей о том, 0:09:01.076,0:09:06.086 что люди и роботы, работающие вместе,[br]будут дополнять друг друга 0:09:06.110,0:09:08.168 и начнут заселять новые рубежи. 0:09:08.192,0:09:10.554 Это наша прикладная лаборатория[br]в Сан-Франциско, 0:09:10.578,0:09:13.720 где одним из направлений работы[br]является передовая робототехника. 0:09:13.744,0:09:16.255 Говоря конкретнее, сотрудничество[br]человека с роботом. 0:09:17.034,0:09:19.793 И это Бишоп, один из наших роботов. 0:09:19.817,0:09:21.606 Как эксперимент, мы настроили его, 0:09:21.630,0:09:25.090 чтобы помочь человеку, занятому[br]в строительстве однообразными задачами, 0:09:25.984,0:09:30.178 вроде вырезания отверстий для розеток[br]или выключателей в гипсокартоне. 0:09:30.202,0:09:32.668 (Смех) 0:09:33.877,0:09:36.988 Человек-напарник Бишопа может[br]дать задачу на простом английском 0:09:37.012,0:09:38.317 и с помощью простых жестов, 0:09:38.341,0:09:39.788 вроде разговора с собакой. 0:09:39.812,0:09:41.955 И Бишоп выполнит данные инструкции 0:09:41.979,0:09:43.871 с идеальной точностью. 0:09:43.895,0:09:46.884 Мы используем людей там,[br]где они наиболее сильны: 0:09:46.908,0:09:49.241 осознанность, восприятие[br]и принятие решений. 0:09:49.265,0:09:51.505 И мы используем роботов там,[br]где сильны они: 0:09:51.529,0:09:53.277 точность и повторяемость. 0:09:54.082,0:09:56.619 Вот ещё один крутой проект,[br]над которым работал Бишоп. 0:09:56.643,0:09:59.718 Цель проекта, который мы назвали «УЛЕЙ», 0:09:59.742,0:10:03.593 заключалась в определении ролей[br]людей, компьютеров и роботов, 0:10:03.617,0:10:06.837 работающих вместе над решением[br]весьма сложной проектной задачи. 0:10:07.793,0:10:09.244 Люди действовали как рабочие. 0:10:09.268,0:10:12.741 Они ходили по строительной площадке[br]и управлялись с бамбуковыми палками — 0:10:12.765,0:10:15.521 с которыми, кстати, в связи с их[br]неоднородной структурой, 0:10:15.545,0:10:17.419 роботам крайне сложно совладать. 0:10:17.543,0:10:19.865 Но затем роботы выполнили намотку нити, 0:10:19.889,0:10:22.340 что для человека практически[br]невыполнимая задача. 0:10:22.364,0:10:25.985 И следом имел место искусственный[br]интеллект, который всё контролировал. 0:10:26.109,0:10:29.399 Он говорил людям, что делать,[br]говорил роботам, что делать, 0:10:29.423,0:10:32.338 и отслеживал тысячи отдельных компонентов. 0:10:32.362,0:10:33.542 Что интересно, 0:10:33.566,0:10:36.707 строительство этого павильона[br]было просто невозможно 0:10:36.731,0:10:41.255 без человека, робота и искусственного[br]интеллекта, дополняющих друг друга. 0:10:42.390,0:10:45.710 Ну хорошо, я поделюсь ещё одним[br]проектом, несколько бредовым. 0:10:47.734,0:10:52.202 Мы работаем с амстердамским художником[br]Йорисом Лаарманом и его командой MX3D 0:10:53.526,0:10:56.404 для генеративного проектирования[br]и роботизированной печати 0:10:56.428,0:10:59.423 первого в мире автономно[br]изготовленного моста. 0:11:01.015,0:11:04.700 Йорис и ИИ проектируют этот мост[br]прямо сейчас, пока мы говорим, 0:11:04.724,0:11:05.896 в Амстердаме. 0:11:06.620,0:11:09.211 И когда они закончат, мы нажмём на «Пуск», 0:11:09.235,0:11:12.546 и роботы начнут 3D печать[br]из нержавеющей стали, 0:11:12.570,0:11:15.853 и затем они продолжат печать[br]без вмешательства человека, 0:11:15.877,0:11:17.435 пока мост не будет завершён. 0:11:18.769,0:11:21.697 Тогда как компьютеры[br]расширят наши способности 0:11:21.721,0:11:23.871 в воображении и[br]проектировании новых вещей, 0:11:23.895,0:11:26.790 робототехнические системы[br]помогут строить и делать предметы, 0:11:26.814,0:11:28.898 которые мы не могли сделать раньше. 0:11:30.017,0:11:34.177 Однако как насчёт нашей способности[br]воспринимать и контролировать эти вещи? 0:11:34.201,0:11:38.232 Что по поводу нервной системы[br]для предметов, которые мы изготавливаем? 0:11:40.486,0:11:42.998 Наша нервная система,[br]человеческая нервная система, 0:11:43.022,0:11:45.333 говорит нам обо всём,[br]что происходит вокруг нас. 0:11:46.086,0:11:49.389 Но нервная система вещей, что мы создаём,[br]в лучшем случае неразвита. 0:11:49.413,0:11:51.578 Я бы сказал, она пока что[br]довольно хреновая. 0:11:51.602,0:11:52.930 (Смех) 0:11:52.954,0:11:56.817 Например, автомобиль не сообщает[br]в департамент общественных работ города, 0:11:56.841,0:11:59.971 что он только что попал в выбоину[br]на углу Бродвея и Моррисона. 0:12:01.295,0:12:03.327 Здание не говорит своим проектировщикам, 0:12:03.351,0:12:06.035 нравится ли людям находиться в нём, 0:12:07.659,0:12:10.669 и производитель игрушек не знает, 0:12:10.693,0:12:12.700 действительно ли с его игрушкой играют — 0:12:12.724,0:12:15.263 как, и где, и правда ли[br]это хоть отчасти весело? 0:12:15.880,0:12:19.694 Послушайте, я уверен, что конструкторá[br]представляли этот образ жизни для Барби, 0:12:19.718,0:12:20.942 кода проектировали её. 0:12:20.966,0:12:22.413 (Смех) 0:12:23.237,0:12:26.143 Но что, если выясниться, что Барби[br]на самом-то деле одинока? 0:12:26.167,0:12:30.302 (Смех) 0:12:30.326,0:12:31.614 Если бы конструктора знали, 0:12:31.638,0:12:33.745 что действительно происходило[br]в реальном мире 0:12:33.769,0:12:36.352 с их решениями —[br]дорогой, зданием, Барби — 0:12:36.376,0:12:39.070 они могли бы это использовать[br]для создания наработок, 0:12:39.094,0:12:40.574 более полезных для потребителя. 0:12:40.604,0:12:42.309 Здесь не достаёт нервной системы, 0:12:42.333,0:12:46.042 связывающей нас с вещами, что мы[br]проектируем, изготавливаем и используем. 0:12:46.975,0:12:50.530 Что, если все из вас владели бы подобной[br]информацией, поступающей к вам 0:12:50.554,0:12:52.737 от вещей, созданных вами[br]в реальном мире? 0:12:54.492,0:12:55.943 На всё то, что мы делаем, 0:12:55.967,0:12:58.402 мы тратим огромное количество[br]денег и энергии — 0:12:58.426,0:13:00.802 около двух триллионов[br]долларов в 2015 году, — 0:13:00.826,0:13:03.680 убеждая людей приобретать[br]предметы, сделанные нами. 0:13:03.704,0:13:07.092 Но если бы у вас была связь с вещами,[br]что вы разработали и изготовили, 0:13:07.116,0:13:08.843 после их попадания в реальный мир, 0:13:08.867,0:13:12.481 после того как они были проданы,[br]или запущены, или всё что угодно, 0:13:12.505,0:13:14.125 мы вполне могли бы это изменить 0:13:14.149,0:13:17.596 и уйти от необходимости заинтересовывать[br]людей в нашей продукции 0:13:17.620,0:13:21.054 к тому, чтобы делать вещи,[br]которые люди сами захотят купить. 0:13:24.428,0:13:27.265 Хорошая новость: мы работаем[br]с цифровыми нервными системами, 0:13:27.289,0:13:30.090 которые соединяют нас[br]с создаваемыми нами вещами. 0:13:31.225,0:13:32.852 Мы работаем над проектом 0:13:32.876,0:13:37.888 с парой парней из Лос-Анджелеса,[br]которых называют Bandito Brothers, 0:13:37.912,0:13:39.319 и их командой. 0:13:39.343,0:13:42.776 И одна из вещей, которую они делают,[br]это создание безумных автомобилей, 0:13:42.800,0:13:45.673 делающих совершенно ненормальные вещи. 0:13:47.065,0:13:48.515 Эти парни — психи 0:13:48.539,0:13:49.575 (Смех) 0:13:49.599,0:13:51.002 в хорошем смысле слова. 0:13:54.793,0:13:56.556 И то, что мы с ними делаем, 0:13:56.580,0:13:59.020 это берём обыкновенное шасси[br]гоночного автомобиля 0:13:59.044,0:14:00.629 и снабжаем его нервной системой. 0:14:00.653,0:14:03.771 Мы оборудовали его десятками датчиков, 0:14:03.795,0:14:06.430 посадили за руль водителя мирового класса, 0:14:06.454,0:14:09.811 вывезли его в пустыню и в течение недели[br]гоняли с дикой скоростью. 0:14:09.835,0:14:12.326 И нервная система автомобиля[br]фиксировала всё, 0:14:12.350,0:14:13.832 что с ним происходило. 0:14:13.856,0:14:16.477 Мы зафиксировали 4 миллиарда точек данных; 0:14:16.501,0:14:18.811 все силы, которые на него действовали. 0:14:18.835,0:14:20.494 А после мы сделали нечто безумное: 0:14:21.238,0:14:22.738 мы взяли все эти данные 0:14:22.762,0:14:26.498 и подключили их к генеративно-проектному[br]ИИ, которого мы зовём «Ловец снов». 0:14:27.240,0:14:31.204 Так что же вы получаете, когда даёте[br]инструмент проектирования нервной системе, 0:14:31.228,0:14:34.110 и просите построить совершенное[br]автомобильное шасси? 0:14:34.693,0:14:36.666 Вы получаете вот это. 0:14:38.263,0:14:41.976 Это то, что человек никогда[br]не смог бы создать. 0:14:42.677,0:14:44.565 Однако именно человек сделал это, 0:14:44.589,0:14:48.898 но этот человек был усилен[br]генеративно-проектным ИИ, 0:14:48.922,0:14:50.153 цифровой нервной системой 0:14:50.177,0:14:53.182 и роботами, которые в состоянии[br]изготовить нечто подобное. 0:14:54.150,0:14:57.745 Если Эпоха совершенствования —[br]это наше будущее, 0:14:57.769,0:15:02.030 и мы собираемся быть улучшены[br]когнитивно, физически и на уровне чувств, 0:15:02.054,0:15:03.462 то как оно будет выглядеть? 0:15:04.046,0:15:06.712 На что будет похожа эта страна чудес? 0:15:08.291,0:15:10.900 Я думаю, мы увидим мир, 0:15:10.924,0:15:13.992 где мы движемся от вещей,[br]которые изготавливаются, 0:15:15.101,0:15:16.546 к вещам, которые выращиваются. 0:15:18.429,0:15:22.374 Где мы движемся от вещей, которые собраны, 0:15:22.398,0:15:24.102 к вещам, которые выросли. 0:15:26.504,0:15:28.692 Мы будем двигаться от изолированности 0:15:29.660,0:15:31.270 к тому, чтобы быть объединёнными. 0:15:33.104,0:15:36.015 И мы уйдём от добычи ископаемых 0:15:36.039,0:15:37.912 к обширному накоплению. 0:15:40.437,0:15:44.204 Я также думаю, что мы перейдём[br]от подчинения нам наших вещей 0:15:45.128,0:15:46.769 к уважению самостоятельности. 0:15:49.480,0:15:51.385 Благодаря нашим[br]расширенным способностям, 0:15:51.409,0:15:53.786 наш мир кардинально изменится. 0:15:54.702,0:15:58.305 Мне представляется хорошей аналогией[br]невероятный микромир кораллового рифа. 0:15:58.836,0:16:02.082 У нас будет мир с бóльшим[br]разнообразием, большей связностью, 0:16:02.106,0:16:04.393 большей динамичностью,[br]большей комплексностью, 0:16:04.417,0:16:06.735 большей приспосабливаемостью[br]и, конечно, 0:16:06.759,0:16:07.976 мир более прекрасный. 0:16:08.741,0:16:10.305 Форма грядущих перемен 0:16:10.329,0:16:12.619 будет отлична от всего,[br]что мы когда-либо видели. 0:16:12.643,0:16:13.802 Почему? 0:16:13.826,0:16:17.581 Потому что то, что будет формировать[br]те вещи — это новое партнёрство 0:16:17.605,0:16:21.275 между технологией, природой[br]и человечеством. 0:16:22.789,0:16:26.593 Это для меня то будущее,[br]на которое стоит надеяться. 0:16:26.617,0:16:27.888 Большое спасибо всем вам. 0:16:27.912,0:16:34.912 (Аплодисменты)