1 00:00:10,847 --> 00:00:13,799 Что ж, Портленд, ух ты! Большое спасибо за приглашение. 2 00:00:14,038 --> 00:00:15,498 Люблю приезжать в этот город. 3 00:00:15,522 --> 00:00:18,625 Ну где ещё в мире у меня может быть подобный завтрак? 4 00:00:18,649 --> 00:00:20,315 (Смех) 5 00:00:20,339 --> 00:00:23,632 И, несомненно, это очень необычное место. 6 00:00:23,815 --> 00:00:25,111 (Смех) 7 00:00:25,135 --> 00:00:27,424 Сколько среди вас художников, 8 00:00:27,448 --> 00:00:31,072 дизайнеров, инженеров, предпринимателей, артистов, 9 00:00:31,096 --> 00:00:33,483 или вы просто обладаете богатым воображением? 10 00:00:33,507 --> 00:00:35,355 Подни́мите руки? (Одобрительные возгласы) 11 00:00:35,379 --> 00:00:36,560 Большинство из вас. 12 00:00:37,734 --> 00:00:40,028 У меня есть новости для нас, людей творческих. 13 00:00:41,114 --> 00:00:43,687 На протяжении следующих 20-ти лет 14 00:00:45,871 --> 00:00:48,844 произойдёт больше изменений в том, как мы работаем, 15 00:00:49,782 --> 00:00:51,939 чем за последние два тысячелетия. 16 00:00:52,768 --> 00:00:57,396 Фактически, я думаю, мы на рассвете новой эры человеческой истории. 17 00:00:58,045 --> 00:01:02,624 Существует 4 главных исторических эпохи, определяемых нашем стилем работы. 18 00:01:03,804 --> 00:01:07,079 Эпоха охотников и собирателей, продлившаяся несколько миллионов лет. 19 00:01:07,563 --> 00:01:11,139 Следом — сельскохозяйственная эпоха, протяжённостью в несколько тысяч. 20 00:01:11,405 --> 00:01:14,895 Промышленная, длиной в пару столетий. 21 00:01:14,919 --> 00:01:18,728 Наконец, информационная эпоха, длившаяся всего несколько десятилетий. 22 00:01:19,230 --> 00:01:24,450 И вот сегодня мы на грани следующей, величайшей эпохи для нас как вида. 23 00:01:25,506 --> 00:01:28,186 Добро пожаловать в Эпоху совершенствования. 24 00:01:28,210 --> 00:01:31,903 В этой новой эпохе ваши естественные человеческие возможности будут улучшены 25 00:01:31,927 --> 00:01:34,995 вычислительными системами, помогающими вам думать; 26 00:01:35,119 --> 00:01:37,305 системами роботизации, помогающими вам творить; 27 00:01:37,329 --> 00:01:38,977 и электронными нервными системами, 28 00:01:39,001 --> 00:01:42,691 соединяющими вас с миром, лежащим далеко за рамками естественного восприятия. 29 00:01:44,947 --> 00:01:46,889 Давайте начнём с улучшения восприятия. 30 00:01:46,913 --> 00:01:49,113 Сколько среди вас улучшенных киборгов? 31 00:01:49,270 --> 00:01:51,545 (Смех) 32 00:01:51,569 --> 00:01:53,084 Ладно, трое или четверо из вас, 33 00:01:53,108 --> 00:01:54,791 просто потому, что это Портленд. 34 00:01:54,815 --> 00:01:58,025 (Смех) 35 00:01:58,049 --> 00:01:59,231 Оставайтесь странными. 36 00:01:59,255 --> 00:02:01,543 (Смех) 37 00:02:01,567 --> 00:02:04,388 Я бы, на самом деле, поспорил, что мы уже улучшены. 38 00:02:05,048 --> 00:02:06,552 Представьте себя на вечеринке, 39 00:02:06,576 --> 00:02:10,096 где кто-то задаёт вам вопрос, ответ на который вы не знаете. 40 00:02:10,120 --> 00:02:13,880 Если у вас при себе одна из этих штук, через несколько секунд вы узнаете ответ. 41 00:02:14,629 --> 00:02:16,928 Но это всего-навсего примитивное начало. 42 00:02:17,623 --> 00:02:20,954 Даже Сири всего лишь пассивный инструмент. 43 00:02:21,420 --> 00:02:24,801 Фактически, на протяжении трёх с половиной миллионов лет 44 00:02:24,825 --> 00:02:28,348 инструменты, которые мы использовали, были абсолютно пассивны. 45 00:02:29,563 --> 00:02:33,218 Они делают ровно то, что мы говорим им сделать, и ничего более. 46 00:02:33,242 --> 00:02:36,343 Наш самый первый инструмент лишь рубил там, где мы им ударяли. 47 00:02:37,382 --> 00:02:40,422 Резец режет только там, куда указывает гравировщик. 48 00:02:40,818 --> 00:02:46,544 И даже наши наиболее передовые инструменты не делают ничего без наших явных указаний. 49 00:02:47,598 --> 00:02:50,779 Фактически, до сих пор — и это меня сильно расстраивает — 50 00:02:50,803 --> 00:02:52,251 мы всегда были ограничены 51 00:02:52,275 --> 00:02:55,776 этой необходимостью вручную помещать наши намерения в наши инструменты — 52 00:02:55,800 --> 00:02:58,097 буквально используя наши руки, 53 00:02:58,121 --> 00:02:59,549 даже с компьютерами. 54 00:03:00,662 --> 00:03:03,125 Но я больше похож на Скотти из «Звёздного пути». 55 00:03:03,149 --> 00:03:04,999 (Смех) 56 00:03:05,023 --> 00:03:07,169 Я хочу беседовать с компьютером. 57 00:03:07,193 --> 00:03:10,163 Я хочу сказать: «Компьютер, давай спроектируем автомобиль», 58 00:03:10,187 --> 00:03:11,726 и компьютер показывает его мне. 59 00:03:11,750 --> 00:03:14,358 Я говорю: «Нет, более быстрый на вид и менее немецкий», 60 00:03:14,382 --> 00:03:16,545 и — хлоп, компьютер показывает мне вариант. 61 00:03:16,569 --> 00:03:18,434 (Смех) 62 00:03:18,798 --> 00:03:21,104 До такого диалога, возможно, далеко, 63 00:03:21,128 --> 00:03:23,793 хотя и ближе, чем многие из нас думают, 64 00:03:23,817 --> 00:03:25,580 но прямо сейчас 65 00:03:25,604 --> 00:03:26,755 мы над этим работаем. 66 00:03:26,779 --> 00:03:30,812 Инструменты совершают этот скачок от пассивного состояния к производящему. 67 00:03:31,421 --> 00:03:36,069 Генеративные конструкторские инструменты используют компьютер и алгоритмы 68 00:03:36,093 --> 00:03:38,901 для получения геометрических элементов 69 00:03:38,925 --> 00:03:41,679 для создания новых конструкций, всё самостоятельно. 70 00:03:42,096 --> 00:03:44,874 Всё, что требуется — это ваши цели и заданные вами пределы. 71 00:03:44,898 --> 00:03:46,306 Я приведу вам пример. 72 00:03:46,330 --> 00:03:49,118 В случае с корпусом этого воздушного беспилотника, 73 00:03:49,142 --> 00:03:51,768 всё, что вам следовало бы сделать — сказать нечто вроде: 74 00:03:51,792 --> 00:03:53,065 у него четыре пропеллера, 75 00:03:53,089 --> 00:03:55,220 он должен быть таким лёгким, каким возможно, 76 00:03:55,244 --> 00:03:57,514 и он должен быть аэродинамически эффективным. 77 00:03:57,538 --> 00:04:02,452 После этого компьютер исследует всё пространство решений: 78 00:04:02,476 --> 00:04:06,403 каждую возможность, которая решаема и отвечает вашим критериям — 79 00:04:06,427 --> 00:04:07,869 миллионы из них. 80 00:04:07,893 --> 00:04:09,868 Для этого требуются мощные компьютеры. 81 00:04:09,892 --> 00:04:11,847 Но после мы получаем конструкции, 82 00:04:11,871 --> 00:04:15,014 которые мы сами никогда бы не смогли вообразить. 83 00:04:15,456 --> 00:04:18,368 И компьютер находит все эти решения самостоятельно — 84 00:04:18,392 --> 00:04:20,070 никто никогда ничего не чертил, 85 00:04:20,094 --> 00:04:22,180 работа была начата полностью с нуля. 86 00:04:23,168 --> 00:04:25,555 И, между прочим, это не случайность, 87 00:04:25,579 --> 00:04:29,060 что корпус беспилотника выглядит точно как тазовая кость белки-летяги. 88 00:04:29,231 --> 00:04:32,146 (Смех) 89 00:04:32,170 --> 00:04:34,472 Это потому что написанные алгоритмы работают 90 00:04:34,496 --> 00:04:36,133 так же, как эволюционные процессы. 91 00:04:37,045 --> 00:04:39,705 Захватывающе то, что мы начинаем видеть эту технологию 92 00:04:39,729 --> 00:04:40,888 в реальном мире. 93 00:04:40,912 --> 00:04:43,364 Мы пару лет работаем с компанией Airbus 94 00:04:43,388 --> 00:04:45,297 над конфигурацией самолёта будущего. 95 00:04:45,321 --> 00:04:47,391 Он всё ещё очень далеко. 96 00:04:47,415 --> 00:04:51,195 Но только недавно мы обратились к ИИ для генеративного проектирования, 97 00:04:51,219 --> 00:04:53,026 чтобы придумать вот это. 98 00:04:53,939 --> 00:04:59,092 Эта часть кабины, напечатанная на 3D-принтере, спроектирована компьютером. 99 00:04:59,116 --> 00:05:01,940 Она прочнее оригинала и вполовину легче, 100 00:05:01,964 --> 00:05:05,110 и она будет летать на Airbus A320 уже в 2016 году. 101 00:05:06,835 --> 00:05:09,024 Так что теперь компьютеры умеют создавать, 102 00:05:09,048 --> 00:05:13,643 они могут предлагать собственные решения для наших чётко сформулированных задач. 103 00:05:14,737 --> 00:05:16,047 Но у них нет интуиции. 104 00:05:16,071 --> 00:05:19,157 Компьютеры всё ещё всякий раз должны начинать с нуля, 105 00:05:19,181 --> 00:05:21,871 и это оттого, что они никогда не учатся. 106 00:05:22,768 --> 00:05:24,534 В отличие от Мэгги. 107 00:05:24,558 --> 00:05:26,139 (Смех) 108 00:05:26,163 --> 00:05:29,460 На самом деле, Мэгги умнее наших самых передовых средств разработки. 109 00:05:29,867 --> 00:05:31,367 Что я имею под этим в виду? 110 00:05:31,391 --> 00:05:32,981 Если её хозяин берёт поводок, 111 00:05:33,005 --> 00:05:35,073 Мэгги знает, с достаточной уверенностью, 112 00:05:35,097 --> 00:05:36,501 что пришло время идти гулять. 113 00:05:36,525 --> 00:05:37,710 И как же она обучилась? 114 00:05:37,734 --> 00:05:41,058 Всякий раз, когда хозяин брал поводок, они шли гулять. 115 00:05:41,082 --> 00:05:42,960 И Мэгги делала 3 вещи: 116 00:05:42,984 --> 00:05:44,853 она должна была обратить внимание, 117 00:05:44,877 --> 00:05:46,959 она должна была запомнить, что происходило, 118 00:05:46,983 --> 00:05:51,000 и она должна была удержать и сохранить эту последовательность в своём сознании. 119 00:05:51,889 --> 00:05:53,984 Интересно, что это именно то, 120 00:05:54,008 --> 00:05:56,531 что программисты пытались добиться от систем ИИ 121 00:05:56,555 --> 00:05:58,414 за последние 60, или около того, лет. 122 00:05:59,783 --> 00:06:01,132 В далёком 1952 году 123 00:06:01,156 --> 00:06:04,957 они построили этот компьютер, который мог играть в «Крестики-нолики». 124 00:06:06,181 --> 00:06:07,341 Важное занятие. 125 00:06:08,129 --> 00:06:11,129 Затем, 45 лет спустя, в 1997 году, 126 00:06:11,153 --> 00:06:13,625 Deep Blue выиграл у Каспарова в шахматы. 127 00:06:15,146 --> 00:06:20,114 2011 год: Watson побеждает этих двух человек в «Свою игру», 128 00:06:20,138 --> 00:06:23,066 которая для компьютера значительно сложнее шахмат. 129 00:06:23,090 --> 00:06:26,902 Фактически, вместо того, чтобы исходить из заранее определённых методов, 130 00:06:26,926 --> 00:06:30,249 Watson должен был использовать рассуждения для победы над оппонентами. 131 00:06:31,493 --> 00:06:33,932 И затем, пару недель назад, 132 00:06:33,956 --> 00:06:38,218 программа AlphaGo компании DeepMinds победила лучшего в мире игрока в Го, 133 00:06:38,242 --> 00:06:40,454 самую сложную из существующих у нас игр. 134 00:06:40,478 --> 00:06:43,974 Фактически, в Го больше возможных ходов, 135 00:06:43,998 --> 00:06:46,022 чем атомов во Вселенной. 136 00:06:47,910 --> 00:06:49,736 Поэтому для того, чтобы выиграть, 137 00:06:49,760 --> 00:06:52,774 AlphaGo должна была развить интуицию. 138 00:06:52,798 --> 00:06:56,908 И более того, в некоторые моменты, программист AlphaGo не понимал, 139 00:06:56,932 --> 00:06:59,218 почему программа делала то, что она делала. 140 00:07:01,151 --> 00:07:02,811 И всё происходит очень быстро. 141 00:07:02,835 --> 00:07:06,082 Я имею в виду, обратите внимание: в пределах одной человеческой жизни 142 00:07:06,106 --> 00:07:08,319 компьютеры прошли путь от детской игры 143 00:07:09,620 --> 00:07:12,668 к тому, что признано вершиной стратегического мышления. 144 00:07:13,699 --> 00:07:16,116 Что, в общем-то, происходит, 145 00:07:16,140 --> 00:07:19,450 так это то, что компьютеры движутся от схожести со Споком... 146 00:07:20,474 --> 00:07:22,423 к тому, чтобы сильнее походить на Кирка. 147 00:07:22,447 --> 00:07:26,065 (Смех) 148 00:07:26,089 --> 00:07:29,513 Верно? От чистой логики к интуиции. 149 00:07:31,584 --> 00:07:33,327 Вы бы ступили на этот мост? 150 00:07:33,949 --> 00:07:36,332 Большинство из вас думает: «О, чёрт, конечно, нет!» 151 00:07:36,356 --> 00:07:37,664 (Смех) 152 00:07:37,688 --> 00:07:40,345 И вы пришли к этому решению за долю секунды. 153 00:07:40,369 --> 00:07:42,797 Вы просто как бы знали, что мост небезопасен. 154 00:07:42,821 --> 00:07:44,810 И это тот самый частный случай интуиции, 155 00:07:44,834 --> 00:07:48,402 которую наши системы глубинного обучения начинают развивать прямо сейчас. 156 00:07:49,122 --> 00:07:50,829 Очень скоро вы буквально сумеете 157 00:07:50,853 --> 00:07:53,782 показать компьютеру что-то, что сделали, спроектировали, 158 00:07:53,806 --> 00:07:55,439 и он посмотрит на это и скажет: 159 00:07:55,463 --> 00:07:58,286 «Извини, чувак, это не сработает. Попробуй ещё раз». 160 00:07:59,254 --> 00:08:02,324 Или вы могли бы спросить, понравится ли людям ваша новая песня 161 00:08:03,173 --> 00:08:05,236 или ваш следующий вкус мороженого. 162 00:08:06,949 --> 00:08:09,528 Или, что гораздо важнее, 163 00:08:09,552 --> 00:08:11,916 вы могли бы работать с компьютером над задачей, 164 00:08:11,940 --> 00:08:13,577 с которой никогда не сталкивались. 165 00:08:13,601 --> 00:08:15,002 Например, изменение климата. 166 00:08:15,026 --> 00:08:17,046 В одиночку у нас плохо получается, 167 00:08:17,070 --> 00:08:19,405 мы определённо нуждаемся в любой доступной помощи. 168 00:08:19,425 --> 00:08:20,797 И это то, о чём я говорю. 169 00:08:20,821 --> 00:08:23,376 Технология усиливает наши познавательные способности, 170 00:08:23,400 --> 00:08:26,952 чтобы мы могли представить и создать вещи, которые были для нас недоступны, 171 00:08:26,976 --> 00:08:29,535 как для прежних неусовершенствованных людей. 172 00:08:31,384 --> 00:08:34,325 Ну а как насчёт реализации всех этих безумных вещей, 173 00:08:34,349 --> 00:08:36,790 которые мы собираемся изобрести и сконструировать? 174 00:08:37,352 --> 00:08:41,445 Думаю, что эра совершенствования человека в той же мере касается реального мира, 175 00:08:41,469 --> 00:08:44,534 в какой затрагивает виртуальную и интеллектуальную сферы. 176 00:08:45,233 --> 00:08:47,154 Как же усилят нас технологии? 177 00:08:47,565 --> 00:08:50,038 В реальном мире — роботизированными системами. 178 00:08:51,620 --> 00:08:53,356 Конечно, существует опасение, 179 00:08:53,380 --> 00:08:55,868 что роботы могут отнять у людей работу, 180 00:08:55,892 --> 00:08:57,722 и это верно для определённых областей. 181 00:08:58,174 --> 00:09:01,052 Но я куда более заинтересован идеей о том, 182 00:09:01,076 --> 00:09:06,086 что люди и роботы, работающие вместе, будут дополнять друг друга 183 00:09:06,110 --> 00:09:08,168 и начнут заселять новые рубежи. 184 00:09:08,192 --> 00:09:10,554 Это наша прикладная лаборатория в Сан-Франциско, 185 00:09:10,578 --> 00:09:13,720 где одним из направлений работы является передовая робототехника. 186 00:09:13,744 --> 00:09:16,255 Говоря конкретнее, сотрудничество человека с роботом. 187 00:09:17,034 --> 00:09:19,793 И это Бишоп, один из наших роботов. 188 00:09:19,817 --> 00:09:21,606 Как эксперимент, мы настроили его, 189 00:09:21,630 --> 00:09:25,090 чтобы помочь человеку, занятому в строительстве однообразными задачами, 190 00:09:25,984 --> 00:09:30,178 вроде вырезания отверстий для розеток или выключателей в гипсокартоне. 191 00:09:30,202 --> 00:09:32,668 (Смех) 192 00:09:33,877 --> 00:09:36,988 Человек-напарник Бишопа может дать задачу на простом английском 193 00:09:37,012 --> 00:09:38,317 и с помощью простых жестов, 194 00:09:38,341 --> 00:09:39,788 вроде разговора с собакой. 195 00:09:39,812 --> 00:09:41,955 И Бишоп выполнит данные инструкции 196 00:09:41,979 --> 00:09:43,871 с идеальной точностью. 197 00:09:43,895 --> 00:09:46,884 Мы используем людей там, где они наиболее сильны: 198 00:09:46,908 --> 00:09:49,241 осознанность, восприятие и принятие решений. 199 00:09:49,265 --> 00:09:51,505 И мы используем роботов там, где сильны они: 200 00:09:51,529 --> 00:09:53,277 точность и повторяемость. 201 00:09:54,082 --> 00:09:56,619 Вот ещё один крутой проект, над которым работал Бишоп. 202 00:09:56,643 --> 00:09:59,718 Цель проекта, который мы назвали «УЛЕЙ», 203 00:09:59,742 --> 00:10:03,593 заключалась в определении ролей людей, компьютеров и роботов, 204 00:10:03,617 --> 00:10:06,837 работающих вместе над решением весьма сложной проектной задачи. 205 00:10:07,793 --> 00:10:09,244 Люди действовали как рабочие. 206 00:10:09,268 --> 00:10:12,741 Они ходили по строительной площадке и управлялись с бамбуковыми палками — 207 00:10:12,765 --> 00:10:15,521 с которыми, кстати, в связи с их неоднородной структурой, 208 00:10:15,545 --> 00:10:17,419 роботам крайне сложно совладать. 209 00:10:17,543 --> 00:10:19,865 Но затем роботы выполнили намотку нити, 210 00:10:19,889 --> 00:10:22,340 что для человека практически невыполнимая задача. 211 00:10:22,364 --> 00:10:25,985 И следом имел место искусственный интеллект, который всё контролировал. 212 00:10:26,109 --> 00:10:29,399 Он говорил людям, что делать, говорил роботам, что делать, 213 00:10:29,423 --> 00:10:32,338 и отслеживал тысячи отдельных компонентов. 214 00:10:32,362 --> 00:10:33,542 Что интересно, 215 00:10:33,566 --> 00:10:36,707 строительство этого павильона было просто невозможно 216 00:10:36,731 --> 00:10:41,255 без человека, робота и искусственного интеллекта, дополняющих друг друга. 217 00:10:42,390 --> 00:10:45,710 Ну хорошо, я поделюсь ещё одним проектом, несколько бредовым. 218 00:10:47,734 --> 00:10:52,202 Мы работаем с амстердамским художником Йорисом Лаарманом и его командой MX3D 219 00:10:53,526 --> 00:10:56,404 для генеративного проектирования и роботизированной печати 220 00:10:56,428 --> 00:10:59,423 первого в мире автономно изготовленного моста. 221 00:11:01,015 --> 00:11:04,700 Йорис и ИИ проектируют этот мост прямо сейчас, пока мы говорим, 222 00:11:04,724 --> 00:11:05,896 в Амстердаме. 223 00:11:06,620 --> 00:11:09,211 И когда они закончат, мы нажмём на «Пуск», 224 00:11:09,235 --> 00:11:12,546 и роботы начнут 3D печать из нержавеющей стали, 225 00:11:12,570 --> 00:11:15,853 и затем они продолжат печать без вмешательства человека, 226 00:11:15,877 --> 00:11:17,435 пока мост не будет завершён. 227 00:11:18,769 --> 00:11:21,697 Тогда как компьютеры расширят наши способности 228 00:11:21,721 --> 00:11:23,871 в воображении и проектировании новых вещей, 229 00:11:23,895 --> 00:11:26,790 робототехнические системы помогут строить и делать предметы, 230 00:11:26,814 --> 00:11:28,898 которые мы не могли сделать раньше. 231 00:11:30,017 --> 00:11:34,177 Однако как насчёт нашей способности воспринимать и контролировать эти вещи? 232 00:11:34,201 --> 00:11:38,232 Что по поводу нервной системы для предметов, которые мы изготавливаем? 233 00:11:40,486 --> 00:11:42,998 Наша нервная система, человеческая нервная система, 234 00:11:43,022 --> 00:11:45,333 говорит нам обо всём, что происходит вокруг нас. 235 00:11:46,086 --> 00:11:49,389 Но нервная система вещей, что мы создаём, в лучшем случае неразвита. 236 00:11:49,413 --> 00:11:51,578 Я бы сказал, она пока что довольно хреновая. 237 00:11:51,602 --> 00:11:52,930 (Смех) 238 00:11:52,954 --> 00:11:56,817 Например, автомобиль не сообщает в департамент общественных работ города, 239 00:11:56,841 --> 00:11:59,971 что он только что попал в выбоину на углу Бродвея и Моррисона. 240 00:12:01,295 --> 00:12:03,327 Здание не говорит своим проектировщикам, 241 00:12:03,351 --> 00:12:06,035 нравится ли людям находиться в нём, 242 00:12:07,659 --> 00:12:10,669 и производитель игрушек не знает, 243 00:12:10,693 --> 00:12:12,700 действительно ли с его игрушкой играют — 244 00:12:12,724 --> 00:12:15,263 как, и где, и правда ли это хоть отчасти весело? 245 00:12:15,880 --> 00:12:19,694 Послушайте, я уверен, что конструкторá представляли этот образ жизни для Барби, 246 00:12:19,718 --> 00:12:20,942 кода проектировали её. 247 00:12:20,966 --> 00:12:22,413 (Смех) 248 00:12:23,237 --> 00:12:26,143 Но что, если выясниться, что Барби на самом-то деле одинока? 249 00:12:26,167 --> 00:12:30,302 (Смех) 250 00:12:30,326 --> 00:12:31,614 Если бы конструктора знали, 251 00:12:31,638 --> 00:12:33,745 что действительно происходило в реальном мире 252 00:12:33,769 --> 00:12:36,352 с их решениями — дорогой, зданием, Барби — 253 00:12:36,376 --> 00:12:39,070 они могли бы это использовать для создания наработок, 254 00:12:39,094 --> 00:12:40,574 более полезных для потребителя. 255 00:12:40,604 --> 00:12:42,309 Здесь не достаёт нервной системы, 256 00:12:42,333 --> 00:12:46,042 связывающей нас с вещами, что мы проектируем, изготавливаем и используем. 257 00:12:46,975 --> 00:12:50,530 Что, если все из вас владели бы подобной информацией, поступающей к вам 258 00:12:50,554 --> 00:12:52,737 от вещей, созданных вами в реальном мире? 259 00:12:54,492 --> 00:12:55,943 На всё то, что мы делаем, 260 00:12:55,967 --> 00:12:58,402 мы тратим огромное количество денег и энергии — 261 00:12:58,426 --> 00:13:00,802 около двух триллионов долларов в 2015 году, — 262 00:13:00,826 --> 00:13:03,680 убеждая людей приобретать предметы, сделанные нами. 263 00:13:03,704 --> 00:13:07,092 Но если бы у вас была связь с вещами, что вы разработали и изготовили, 264 00:13:07,116 --> 00:13:08,843 после их попадания в реальный мир, 265 00:13:08,867 --> 00:13:12,481 после того как они были проданы, или запущены, или всё что угодно, 266 00:13:12,505 --> 00:13:14,125 мы вполне могли бы это изменить 267 00:13:14,149 --> 00:13:17,596 и уйти от необходимости заинтересовывать людей в нашей продукции 268 00:13:17,620 --> 00:13:21,054 к тому, чтобы делать вещи, которые люди сами захотят купить. 269 00:13:24,428 --> 00:13:27,265 Хорошая новость: мы работаем с цифровыми нервными системами, 270 00:13:27,289 --> 00:13:30,090 которые соединяют нас с создаваемыми нами вещами. 271 00:13:31,225 --> 00:13:32,852 Мы работаем над проектом 272 00:13:32,876 --> 00:13:37,888 с парой парней из Лос-Анджелеса, которых называют Bandito Brothers, 273 00:13:37,912 --> 00:13:39,319 и их командой. 274 00:13:39,343 --> 00:13:42,776 И одна из вещей, которую они делают, это создание безумных автомобилей, 275 00:13:42,800 --> 00:13:45,673 делающих совершенно ненормальные вещи. 276 00:13:47,065 --> 00:13:48,515 Эти парни — психи 277 00:13:48,539 --> 00:13:49,575 (Смех) 278 00:13:49,599 --> 00:13:51,002 в хорошем смысле слова. 279 00:13:54,793 --> 00:13:56,556 И то, что мы с ними делаем, 280 00:13:56,580 --> 00:13:59,020 это берём обыкновенное шасси гоночного автомобиля 281 00:13:59,044 --> 00:14:00,629 и снабжаем его нервной системой. 282 00:14:00,653 --> 00:14:03,771 Мы оборудовали его десятками датчиков, 283 00:14:03,795 --> 00:14:06,430 посадили за руль водителя мирового класса, 284 00:14:06,454 --> 00:14:09,811 вывезли его в пустыню и в течение недели гоняли с дикой скоростью. 285 00:14:09,835 --> 00:14:12,326 И нервная система автомобиля фиксировала всё, 286 00:14:12,350 --> 00:14:13,832 что с ним происходило. 287 00:14:13,856 --> 00:14:16,477 Мы зафиксировали 4 миллиарда точек данных; 288 00:14:16,501 --> 00:14:18,811 все силы, которые на него действовали. 289 00:14:18,835 --> 00:14:20,494 А после мы сделали нечто безумное: 290 00:14:21,238 --> 00:14:22,738 мы взяли все эти данные 291 00:14:22,762 --> 00:14:26,498 и подключили их к генеративно-проектному ИИ, которого мы зовём «Ловец снов». 292 00:14:27,240 --> 00:14:31,204 Так что же вы получаете, когда даёте инструмент проектирования нервной системе, 293 00:14:31,228 --> 00:14:34,110 и просите построить совершенное автомобильное шасси? 294 00:14:34,693 --> 00:14:36,666 Вы получаете вот это. 295 00:14:38,263 --> 00:14:41,976 Это то, что человек никогда не смог бы создать. 296 00:14:42,677 --> 00:14:44,565 Однако именно человек сделал это, 297 00:14:44,589 --> 00:14:48,898 но этот человек был усилен генеративно-проектным ИИ, 298 00:14:48,922 --> 00:14:50,153 цифровой нервной системой 299 00:14:50,177 --> 00:14:53,182 и роботами, которые в состоянии изготовить нечто подобное. 300 00:14:54,150 --> 00:14:57,745 Если Эпоха совершенствования — это наше будущее, 301 00:14:57,769 --> 00:15:02,030 и мы собираемся быть улучшены когнитивно, физически и на уровне чувств, 302 00:15:02,054 --> 00:15:03,462 то как оно будет выглядеть? 303 00:15:04,046 --> 00:15:06,712 На что будет похожа эта страна чудес? 304 00:15:08,291 --> 00:15:10,900 Я думаю, мы увидим мир, 305 00:15:10,924 --> 00:15:13,992 где мы движемся от вещей, которые изготавливаются, 306 00:15:15,101 --> 00:15:16,546 к вещам, которые выращиваются. 307 00:15:18,429 --> 00:15:22,374 Где мы движемся от вещей, которые собраны, 308 00:15:22,398 --> 00:15:24,102 к вещам, которые выросли. 309 00:15:26,504 --> 00:15:28,692 Мы будем двигаться от изолированности 310 00:15:29,660 --> 00:15:31,270 к тому, чтобы быть объединёнными. 311 00:15:33,104 --> 00:15:36,015 И мы уйдём от добычи ископаемых 312 00:15:36,039 --> 00:15:37,912 к обширному накоплению. 313 00:15:40,437 --> 00:15:44,204 Я также думаю, что мы перейдём от подчинения нам наших вещей 314 00:15:45,128 --> 00:15:46,769 к уважению самостоятельности. 315 00:15:49,480 --> 00:15:51,385 Благодаря нашим расширенным способностям, 316 00:15:51,409 --> 00:15:53,786 наш мир кардинально изменится. 317 00:15:54,702 --> 00:15:58,305 Мне представляется хорошей аналогией невероятный микромир кораллового рифа. 318 00:15:58,836 --> 00:16:02,082 У нас будет мир с бóльшим разнообразием, большей связностью, 319 00:16:02,106 --> 00:16:04,393 большей динамичностью, большей комплексностью, 320 00:16:04,417 --> 00:16:06,735 большей приспосабливаемостью и, конечно, 321 00:16:06,759 --> 00:16:07,976 мир более прекрасный. 322 00:16:08,741 --> 00:16:10,305 Форма грядущих перемен 323 00:16:10,329 --> 00:16:12,619 будет отлична от всего, что мы когда-либо видели. 324 00:16:12,643 --> 00:16:13,802 Почему? 325 00:16:13,826 --> 00:16:17,581 Потому что то, что будет формировать те вещи — это новое партнёрство 326 00:16:17,605 --> 00:16:21,275 между технологией, природой и человечеством. 327 00:16:22,789 --> 00:16:26,593 Это для меня то будущее, на которое стоит надеяться. 328 00:16:26,617 --> 00:16:27,888 Большое спасибо всем вам. 329 00:16:27,912 --> 00:16:34,912 (Аплодисменты)