0:00:01.010,0:00:02.310 Артур Чарльз Кларк, 0:00:02.310,0:00:05.505 известный писатель 50-х годов,[br]однажды сказал: 0:00:05.505,0:00:09.527 «Мы переоцениваем значение техники[br]в краткосрочной перспективе, 0:00:09.527,0:00:12.327 и недооцениваем в долгосрочной». 0:00:12.327,0:00:14.744 Мне кажется, это относится к страху, 0:00:14.744,0:00:19.326 что из-за искусственного интеллекта[br]и роботизации исчезают рабочие места. 0:00:19.326,0:00:21.993 Что мы переоцениваем технологии[br]в короткой перспективе. 0:00:21.993,0:00:27.371 Но я волнуюсь о том, сумеем ли мы[br]в долгосрочной перспективе[br]получить технологии, которые нам нужны. 0:00:27.371,0:00:33.085 Потому что демографическая ситуация[br]сейчас такова, что скоро мы останемся[br]с большим количеством работы, которую некому делать, 0:00:33.085,0:00:38.460 и что мы, наше общество, в будущем[br]вынужденно будет строиться[br]на стальных плечах роботов. 0:00:38.460,0:00:41.286 И я боюсь, что у нас[br]будет недостаточно роботов. 0:00:41.286,0:00:45.925 Но страх потерять работу из-за развития[br]технологий распространился уже давно. 0:00:45.925,0:00:49.877 В далёком 1957 году на экраны[br]вышел фильм со Спенсером Трейси и Кэтрин Хепберн. 0:00:49.877,0:00:51.325 Вы все знаете, как он заканчивается. 0:00:51.325,0:00:55.411 Спенсер Трейси принёс компьютер,[br]ЭВМ образца 1957 года, 0:00:55.411,0:00:57.311 чтобы помочь библиотекарям. 0:00:57.311,0:01:00.788 Библиотекари в компании занимались тем,[br]что отвечали на вопросы руководства, например, 0:01:00.788,0:01:04.625 «Как зовут оленей Санта-Клауса?» 0:01:04.625,0:01:05.810 Они отыскивали эту информацию. 0:01:05.810,0:01:08.243 Эта ЭВМ должна была[br]помочь им в этой работе. 0:01:08.243,0:01:12.326 Ну, конечно, ЭВМ в 1957[br]была в этом не особенно полезной. 0:01:12.326,0:01:15.476 Библиотекари боялись,[br]что останутся без работы. 0:01:15.476,0:01:17.125 Но на деле случилось совсем не это. 0:01:17.125,0:01:22.380 Количество рабочих мест для библиотекарей[br]росло ещё долго после 1957 года. 0:01:22.380,0:01:25.494 И только когда в игру вступил интернет, 0:01:25.494,0:01:28.027 появился веб и поисковые системы, 0:01:28.027,0:01:30.676 спрос на библиотекарей снизился. 0:01:30.676,0:01:34.883 Я думаю, что все, кто жил[br]в 1957 совершенно недооценивали, 0:01:34.883,0:01:39.643 какого уровня достигнет техника сегодня,[br]что мы сможем носить её с собой в руке или в кармане. 0:01:39.643,0:01:45.360 Мы можем просто спросить:[br]«Как зовут оленей Санта-Клауса?» —[br]и мгновенно получим ответ, 0:01:45.360,0:01:47.111 как и на любой другой вопрос. 0:01:47.111,0:01:52.710 Кстати, заработная плата библиотекарей[br]росла в США быстрее, 0:01:52.710,0:01:55.709 чем зарплата других работников[br]в тот же период, 0:01:55.709,0:01:59.277 потому что библиотекари[br]начали дружить с компьютерами. 0:01:59.277,0:02:02.160 Компьютеры стали инструментами, и у них[br]было больше инструментов,[br]чем они могли использовать, 0:02:02.160,0:02:04.452 и в это время[br]они стали чрезвычайно эффективными. 0:02:04.452,0:02:06.244 Тоже самое произошло в офисах. 0:02:06.244,0:02:08.542 В старые времена[br]люди тоже использовали таблицы, 0:02:08.542,0:02:10.876 которые представляли собой[br]разрозненные листы бумаги, 0:02:10.876,0:02:13.026 и данные подсчитывались вручную. 0:02:13.026,0:02:15.393 И вот какая интересная вещь произошла. 0:02:15.393,0:02:17.683 Когда в 80-е началась[br]компьютерная революция, 0:02:17.683,0:02:22.425 программы для работы с таблицами[br]настраивались для офисных работников, 0:02:22.425,0:02:24.077 но не для того, чтобы их заменить, 0:02:24.077,0:02:28.743 а чтобы использовать способности[br]офисных работников к программированию. 0:02:28.743,0:02:31.871 Офисные работники[br]стали программировать таблицы. 0:02:31.871,0:02:33.962 У них стало больше полномочий. 0:02:33.962,0:02:36.541 Им больше не нужно было[br]выполнять рутинные расчёты, 0:02:36.541,0:02:39.476 они могли делать что-то более значимое. 0:02:39.476,0:02:42.734 Сегодня мы начинаем сталкиваться[br]с роботами в повседневной жизни. 0:02:42.734,0:02:45.043 На этой картинке слева — PackBot,[br]разработанный компанией iRobot. 0:02:45.043,0:02:48.475 Когда в Ираке и Афганистане солдаты[br]натыкались на придорожные бомбы, 0:02:48.475,0:02:52.624 вместо того чтобы надевать[br]защитный костюм, выходить из машины[br]и тыкать в них палкой, 0:02:52.624,0:02:54.943 как они делали примерно до 2002 года, 0:02:54.943,0:02:56.351 они отправляли туда робота. 0:02:56.351,0:02:58.494 То есть робот[br]берет на себя опасную работу. 0:02:58.494,0:03:03.012 А справа — TUG, их производит[br]компания Aethon из Питтсбурга. 0:03:03.012,0:03:05.309 Сотни таких можно найти[br]в больницах по всей Америке. 0:03:05.309,0:03:08.049 Они относят[br]грязные простыни в прачечную. 0:03:08.049,0:03:09.925 Отвозят грязную посуду на кухню. 0:03:09.925,0:03:12.010 Доставляют лекарства из аптеки. 0:03:12.010,0:03:14.955 Это освобождает медсестёр и санитарок 0:03:14.955,0:03:18.620 от рутинных обязанностей[br]и механической работы, 0:03:18.620,0:03:20.693 чтобы они могли[br]больше времени проводить с пациентами. 0:03:20.693,0:03:25.392 На самом деле, роботы стали как бы[br]вездесущими в нашей жизни во многих отношениях. 0:03:25.392,0:03:30.660 Но я думаю, что когда речь заходит[br]о промышленных роботах,[br]люди испытывают своего рода страх, 0:03:30.660,0:03:34.767 потому что когда тебя окружают[br]промышленные роботы, это опасно. 0:03:34.767,0:03:39.592 Чтобы управлять ими, вы должны понимать[br]шестимерные векторы и кватернионы. 0:03:39.592,0:03:42.742 Поэтому обычные люди[br]не могут с ними взаимодействовать. 0:03:42.742,0:03:45.361 Я думаю, это тот вид технологий,[br]который развивается неправильно. 0:03:45.361,0:03:48.994 Он оттеснил работника от технологии. 0:03:48.994,0:03:52.093 А я думаю, нам следует[br]обратить внимание на технику, 0:03:52.093,0:03:54.195 с которой могут взаимодействовать[br]обычные люди. 0:03:54.195,0:03:57.875 Поэтому я хочу рассказать вам сегодня[br]о Бакстере, о котором уже говорили. 0:03:57.875,0:04:02.120 Бакстер, как мне кажется —[br]первое поколение роботов, 0:04:02.120,0:04:06.410 в котором обычные люди[br]могут менять заводские настройки. 0:04:06.410,0:04:07.943 Вот, Бакстер здесь. 0:04:07.943,0:04:10.759 Это Крис Харберт из Rethink Rorotics. 0:04:10.759,0:04:12.295 У нас здесь конвейер. 0:04:12.295,0:04:15.146 И если освещение не слишком яркое. 0:04:15.146,0:04:19.192 А, вот! Бакстер взял объект с конвейера. 0:04:19.192,0:04:22.042 Он собирается перенести его сюда[br]и положить вниз. 0:04:22.042,0:04:25.341 И потом вернётся за следующим объектом. 0:04:25.341,0:04:29.189 Интересно, что у Бакстера[br]есть зачатки здравого смысла. 0:04:29.189,0:04:31.410 Кстати, что происходит с глазами? 0:04:31.410,0:04:32.910 Глаза находятся здесь, на экране. 0:04:32.910,0:04:35.659 Они вначале смотрят в сторону,[br]куда робот собирается двинуться. 0:04:35.659,0:04:37.527 Поэтому человек,[br]который взаимодействует с роботом, 0:04:37.527,0:04:41.093 понимает, что тот собирается делать,[br]и не удивляется его движениям. 0:04:41.093,0:04:43.910 Сейчас Крис взял объект у него из руки, 0:04:43.910,0:04:46.142 и Бакстер не продолжил начатое движение,[br]не попытался положить объект. 0:04:46.142,0:04:48.494 Он вернулся и понял,[br]что ему нужно взять следующий. 0:04:48.494,0:04:51.661 В нем есть немного здравого смысла,[br]в том, как он двигается и выбирает объекты. 0:04:51.661,0:04:53.454 С Бакстером можно[br]безопасно взаимодействовать. 0:04:53.454,0:04:56.219 C современным промышленным роботом[br]взаимодействовать вы бы не захотели. 0:04:56.219,0:04:58.411 Но с Бакстером это не опасно. 0:04:58.411,0:05:02.309 Он чувствует воздействие, понимает,[br]что Крис находится здесь, 0:05:02.309,0:05:05.161 и не пытается протянуться[br]через него и задеть его. 0:05:05.161,0:05:08.456 Но мне кажется, что самое интересное[br]в Бакстере — пользовательский интерфейс. 0:05:08.456,0:05:11.802 Крис сейчас подойдёт[br]и возьмёт другую руку. 0:05:11.802,0:05:17.216 И вот, когда это происходит, робот[br]переходит в режим нулевой силы[br]с компенсацией силы тяжести, 0:05:17.216,0:05:19.292 и на экране появляется графика. 0:05:19.292,0:05:23.826 Слева на экране видны иконки, которые[br]показывают, что происходило с его правой рукой. 0:05:23.826,0:05:26.620 Он собирается что-то взять в руку,[br]он собирается перетащить это вот туда, 0:05:26.620,0:05:31.642 нажать кнопку[br]и выпустить эту вещь из руки. 0:05:31.642,0:05:36.210 И робот понимает: а…, он, наверное, имеет в виду,[br]что я собираюсь опустить этот предмет. 0:05:36.210,0:05:37.910 Показывает там маленькую иконку. 0:05:37.910,0:05:43.821 Крис подходит сюда, сжимает его пальцы 0:05:43.821,0:05:47.743 и робот понимает: ага,[br]ты хочешь, чтобы я взял объект. 0:05:47.743,0:05:49.542 На экране появляется зелёный значок,[br]который это обозначает. 0:05:49.542,0:05:54.537 Он собирается указать область,[br]в которой робот должен взять предмет. 0:05:54.537,0:05:59.327 Крис просто двигает рукой робота, и тот[br]понимает, что это была область поиска. 0:05:59.327,0:06:01.203 Её не пришлось указывать в меню. 0:06:01.203,0:06:04.360 Сейчас Бакстер собирается отключиться[br]и изучить, как выглядит этот объект, 0:06:04.360,0:06:06.076 а мы возвращаемся к разговору. 0:06:06.076,0:06:08.288 Итак, в продолжение, 0:06:08.288,0:06:10.459 я хочу рассказать о том,[br]как это происходит на фабриках. 0:06:10.459,0:06:11.943 Этих роботов мы каждый день 0:06:11.943,0:06:13.493 отправляем на фабрики по всей стране. 0:06:13.493,0:06:14.675 Это Милдред. 0:06:14.675,0:06:16.241 Она работает на фабрике в Коннектикуте. 0:06:16.241,0:06:18.620 Она проработала на конвейере[br]больше 20 лет. 0:06:18.620,0:06:21.963 Через час после того, как она[br]впервые увидела промышленного робота, 0:06:21.963,0:06:25.023 она запрограммировала его[br]выполнять некоторые задачи на фабрике. 0:06:25.023,0:06:27.454 Милдред решила,[br]что роботы ей очень нравятся. 0:06:27.454,0:06:32.124 Робот выполнят простые повторяющиеся действия,[br]которое прежде приходилось выполнять ей. 0:06:32.124,0:06:33.962 Теперь у неё для этого есть робот. 0:06:33.962,0:06:36.526 Когда мы впервые отправились[br]поговорить с рабочими на фабриках 0:06:36.526,0:06:39.360 о том, как мы могли бы научить роботов[br]лучше с ними взаимодействовать, 0:06:39.360,0:06:40.926 одним из вопросов,[br]которые мы задавали, был: 0:06:40.926,0:06:43.371 «Вы хотите, чтобы ваши дети[br]работали на фабрике?» 0:06:43.371,0:06:47.743 Общий ответ звучал так: «Нет, я хочу,[br]чтобы у них была работа получше». 0:06:47.743,0:06:51.120 Поэтому Милдред — типичный пример 0:06:51.120,0:06:52.975 сегодняшнего рабочего фабрики в США. 0:06:52.975,0:06:55.160 Обычно это возрастные люди, и они[br]становятся всё старше и старше. 0:06:55.160,0:06:57.725 Не так много молодёжи[br]приходит работать на фабрику. 0:06:57.725,0:07:01.041 И поскольку их задачи становятся[br]более обременительными для них, 0:07:01.041,0:07:04.134 мы должны дать им инструменты,[br]с которыми они смогут взаимодействовать, 0:07:04.134,0:07:05.944 чтобы они стали частью решения, 0:07:05.944,0:07:10.795 чтобы они могли продолжать работать,[br]и мы продолжали что-то производить в США. 0:07:10.795,0:07:14.860 И поэтому наше видение в том,[br]чтобы Милдред, линейный работник, 0:07:14.860,0:07:17.777 стала Милдред,[br]которая тренирует роботов. 0:07:17.777,0:07:18.922 Она встала на ступеньку выше, 0:07:18.922,0:07:23.509 как и офисные работники в 80-х годах[br]повысили уровень того, что они могли делать. 0:07:23.509,0:07:27.593 Мы не даём им инструменты, которые они[br]должны изучать несколько лет,[br]прежде чем начать использовать. 0:07:27.593,0:07:31.037 Это инструменты, работать с которыми[br]они могут научиться в течение нескольких минут. 0:07:31.037,0:07:35.826 Есть две великие силы, неизбежные[br]и обладающие собственной логикой. 0:07:35.826,0:07:38.203 Это изменение климата и демография. 0:07:38.203,0:07:40.870 Демография на самом деле[br]изменит наш мир. 0:07:40.870,0:07:44.832 Это процент взрослого[br]трудоспособного населения. 0:07:44.832,0:07:46.795 Последние 40 лет[br]эта цифра понемногу снижалась. 0:07:46.795,0:07:50.675 Но в ближайшие 40 лет[br]она изменится радикально, даже в Китае. 0:07:50.675,0:07:56.002 Процент людей трудоспособного возраста[br]драматически падает. 0:07:56.002,0:08:01.092 Соответственно, процент людей[br]пенсионного возраста очень быстро растёт, 0:08:01.092,0:08:05.429 поскольку бейби-бумеры[br]выходят на пенсию. 0:08:05.429,0:08:08.977 Это значит, что будет больше людей,[br]которые получат меньше денег[br]от социального страхования, 0:08:08.977,0:08:11.610 конкурирующих за услуги. 0:08:11.610,0:08:15.661 Но более того, становясь старше,[br]мы становимся слабее, 0:08:15.661,0:08:17.910 и больше не можем делать[br]всё то, что привыкли делать. 0:08:17.910,0:08:21.623 Если мы посмотрим на данные о возрасте[br]работников, которые ухаживают[br]за больными и престарелыми, 0:08:21.623,0:08:26.093 мы увидим, что буквально на наших глазах[br]они становятся всё старше и старше. 0:08:26.093,0:08:28.092 Вот что, согласно статистике,[br]происходит прямо сейчас. 0:08:28.092,0:08:34.030 Поскольку растёт количество людей,[br]достигших пенсионного возраста, 0:08:34.030,0:08:36.057 будет всё меньше людей,[br]которые о них заботятся. 0:08:36.057,0:08:38.676 И я думаю, нам действительно[br]понадобится помощь роботов. 0:08:38.676,0:08:41.911 Я не имею в виду,[br]что роботы станут нашими партнёрами. 0:08:41.911,0:08:45.192 Я говорю о роботах, выполняющих работу,[br]которую мы обычно делаем сами, 0:08:45.192,0:08:46.861 но с возрастом она даётся всё тяжелее. 0:08:46.861,0:08:49.726 Вытащить покупки из машины,[br]поднять их по лестнице, отнести на кухню. 0:08:49.726,0:08:52.121 Или даже, когда мы[br]станем намного старше, 0:08:52.121,0:08:55.209 вождение автомобиля,[br]чтобы мы могли навещать знакомых. 0:08:55.209,0:09:01.576 Мне кажется, робототехника даёт людям[br]шанс сохранить достоинство в старости, 0:09:01.576,0:09:05.125 благодаря контролю над роботами. 0:09:05.125,0:09:08.510 Нам не нужно будет полагаться на людей,[br]которых становится всё меньше, чтобы помочь нам. 0:09:08.510,0:09:15.402 И поэтому я уверен, что мы[br]будем проводить больше времени 0:09:15.402,0:09:17.703 с роботами вроде Бакстера 0:09:17.703,0:09:24.397 и сталкиваться с роботами вроде Бакстера[br]в работе и повседневной жизни. 0:09:24.397,0:09:26.877 Давай, Бакстер, отлично. 0:09:26.877,0:09:31.121 И что в ближайшие 40 лет мы все[br]привыкнем полагаться на роботов 0:09:31.121,0:09:33.287 как часть нашей повседневной жизни. 0:09:33.287,0:09:34.581 Большое спасибо. 0:09:34.581,0:09:37.576 (Аплодисменты)