WEBVTT 00:00:00.760 --> 00:00:04.600 В детстве я был типичным ботаником. 00:00:05.320 --> 00:00:07.496 Думаю, некоторые из вас тоже. NOTE Paragraph 00:00:07.640 --> 00:00:08.636 (Смех) NOTE Paragraph 00:00:08.760 --> 00:00:11.966 А вы, смеётесь громче всех, наверняка таким и остались. NOTE Paragraph 00:00:12.140 --> 00:00:14.136 (Смех) NOTE Paragraph 00:00:14.280 --> 00:00:17.606 Я вырос в маленьком городке среди равнин Северного Техаса. 00:00:17.800 --> 00:00:20.966 Мой отец был шерифом, а дед — пастором. 00:00:21.160 --> 00:00:23.750 Никаких вариантов бедокурить. 00:00:24.040 --> 00:00:27.486 Поэтому ради забавы я начал читать книги по математическому анализу. NOTE Paragraph 00:00:27.650 --> 00:00:28.746 (Смех) NOTE Paragraph 00:00:28.950 --> 00:00:30.576 И вы — тоже! 00:00:30.790 --> 00:00:34.196 Благодаря этому я сконструировал в своей комнате лазер, 00:00:34.360 --> 00:00:37.550 компьютер и модель, а потом и топливо для ракеты. 00:00:38.560 --> 00:00:41.406 Научный термин для этого — 00:00:41.640 --> 00:00:44.736 очень плохая идея. NOTE Paragraph 00:00:44.920 --> 00:00:45.996 (Смех) NOTE Paragraph 00:00:46.160 --> 00:00:48.256 Как раз в то время 00:00:48.360 --> 00:00:51.466 вышел фильм Стенли Кубрика «Космическая одиссея 2001 года», 00:00:51.600 --> 00:00:53.800 он кардинально изменил мою жизнь. 00:00:54.170 --> 00:00:56.566 Мне нравилось в этом фильме абсолютно всё, 00:00:56.670 --> 00:00:58.786 особенно HAL 9000. 00:00:58.920 --> 00:01:00.976 HAL был разумным компьютером, 00:01:01.090 --> 00:01:03.456 управляющим космическим кораблём Discovery, 00:01:03.650 --> 00:01:05.946 направляющимся от Земли к Юпитеру. 00:01:06.060 --> 00:01:08.466 У него был небезупречный характер, 00:01:08.660 --> 00:01:12.400 и в итоге человеческой жизни он предпочёл миссию. 00:01:12.730 --> 00:01:14.856 HAL был вымышленным персонажем, 00:01:15.030 --> 00:01:17.466 но тем не менее, он вызывает страх, 00:01:17.640 --> 00:01:19.596 страх быть порабощённым 00:01:19.760 --> 00:01:22.726 бесчувственным искусственным интеллектом, 00:01:22.880 --> 00:01:24.760 равнодушным к человеку. NOTE Paragraph 00:01:25.880 --> 00:01:28.306 Я считаю, такие страхи безосновательны. 00:01:28.510 --> 00:01:31.016 В самом деле, мы живём в удивительное время 00:01:31.200 --> 00:01:32.716 в человеческой истории, 00:01:32.830 --> 00:01:37.556 когда, не принимая ограничения наших тел и нашего разума, 00:01:37.700 --> 00:01:39.306 мы создаём механизмы 00:01:39.480 --> 00:01:42.936 изумительной, невероятной сложности и тонкости, 00:01:43.120 --> 00:01:44.986 которые расширят способности человека 00:01:45.200 --> 00:01:46.880 за грани нашего воображения. NOTE Paragraph 00:01:47.690 --> 00:01:50.166 Начав карьеру в Академии ВВС, 00:01:50.290 --> 00:01:52.186 продолжив в Космическом командовании ВС США, 00:01:52.280 --> 00:01:53.876 я стал инженером-системотехником. 00:01:54.000 --> 00:01:56.736 А в настоящее время занимаюсь инженерными разработками, 00:01:56.890 --> 00:01:59.336 связанными с миссией НАСА на Марсе. 00:01:59.490 --> 00:02:01.856 Сейчас в полётах на Луну 00:02:01.980 --> 00:02:04.846 мы можем полагаться на управление полётами в Хьюстоне, 00:02:05.040 --> 00:02:07.016 чтобы следить за всеми аспектами полёта. 00:02:07.170 --> 00:02:10.416 Однако Марс в 200 раз дальше Луны, 00:02:10.600 --> 00:02:13.696 и поэтому сигнал от Земли к Марсу 00:02:13.840 --> 00:02:16.876 идёт в среднем 13 минут. 00:02:17.000 --> 00:02:20.400 Случись какая-то неполадка, времени не хватит. 00:02:20.840 --> 00:02:23.196 Поэтому разумное инженерное решение — 00:02:23.360 --> 00:02:25.836 разместить центр управления полётами 00:02:25.960 --> 00:02:28.816 внутри космического корабля Orion. 00:02:29.000 --> 00:02:31.766 Другая увлекательная идея для миссии — 00:02:31.920 --> 00:02:34.696 отправить роботов-гуманоидов на Марс 00:02:34.840 --> 00:02:36.506 до прилёта людей: 00:02:36.650 --> 00:02:38.306 сначала они построят базы, 00:02:38.500 --> 00:02:41.760 а потом будут помогать научной команде. NOTE Paragraph 00:02:43.400 --> 00:02:46.096 Когда я посмотрел на это как инженер, 00:02:46.260 --> 00:02:49.010 стало ясно, что нужно спроектировать 00:02:49.160 --> 00:02:51.366 умный, способный к сотрудничеству, 00:02:51.560 --> 00:02:53.956 социально-сознательный искусственный интеллект. 00:02:54.156 --> 00:02:58.136 Другими словами, нужно было создать что-то очень похожее на HAL, 00:02:58.280 --> 00:03:00.576 но без склонности к убийствам. NOTE Paragraph 00:03:00.720 --> 00:03:02.080 (Смех) NOTE Paragraph 00:03:02.920 --> 00:03:04.646 Давайте на минуту остановимся. 00:03:04.840 --> 00:03:08.556 Реально ли сделать такой искусственный интеллект? 00:03:08.680 --> 00:03:09.976 Вполне. 00:03:10.130 --> 00:03:11.286 Во многом 00:03:11.440 --> 00:03:13.286 это сложная инженерная задача 00:03:13.440 --> 00:03:14.896 с использованием ИИ, 00:03:15.060 --> 00:03:19.486 а не запутанный клубок проблем ИИ, который нужно распутать. 00:03:19.640 --> 00:03:22.196 Перефразируя Алана Туринга, 00:03:22.320 --> 00:03:24.586 я не собираюсь создавать разумного робота. 00:03:24.720 --> 00:03:26.306 Я не собираюсь создавать HAL. 00:03:26.420 --> 00:03:28.946 Мне всего лишь нужен простой разум 00:03:29.090 --> 00:03:31.880 с иллюзией интеллекта. NOTE Paragraph 00:03:33.000 --> 00:03:36.026 Искусство и наука о вычислительной технике прошли долгий путь 00:03:36.160 --> 00:03:37.506 с появления HAL на экранах, 00:03:37.680 --> 00:03:40.776 и я представляю, сколько вопросов возникло бы у его изобретателя 00:03:40.920 --> 00:03:43.106 д-ра Чандра, будь он сейчас здесь. 00:03:43.280 --> 00:03:45.226 Возможно ли на самом деле 00:03:45.400 --> 00:03:49.186 взять систему из миллионов устройств, 00:03:49.370 --> 00:03:50.746 прочитать их потоки данных, 00:03:50.920 --> 00:03:53.036 предугадать их ошибки и заранее исправить? 00:03:53.200 --> 00:03:54.106 Да. 00:03:54.280 --> 00:03:57.456 Можно ли создать механизмы, которые говорят на человеческом языке? 00:03:57.640 --> 00:03:58.546 Да. 00:03:58.710 --> 00:04:01.686 Создать механизмы, способные распознавать объекты, эмоции, 00:04:01.880 --> 00:04:05.076 выражать свои эмоции, играть и даже читать по губам? 00:04:05.280 --> 00:04:06.276 Да. 00:04:06.420 --> 00:04:08.556 Механизмы, которые смогут формулировать цели, 00:04:08.680 --> 00:04:12.296 составлять планы для их достижения и учиться в процессе их выполнения? 00:04:12.460 --> 00:04:13.386 Да. 00:04:13.500 --> 00:04:16.866 Можем ли мы создать механизмы, способные понимать чужое сознание? 00:04:17.030 --> 00:04:18.406 Мы работаем над этим. 00:04:18.570 --> 00:04:22.040 Можем ли мы создать механизмы с этическими и нравственными основами? 00:04:22.480 --> 00:04:24.630 Это задача для нас на будущее. 00:04:25.240 --> 00:04:26.596 Давайте на минуту представим 00:04:26.760 --> 00:04:29.486 возможность создания такого искусственного разума 00:04:29.680 --> 00:04:31.636 именно для таких целей, и не только. NOTE Paragraph 00:04:31.840 --> 00:04:34.246 Следующий вопрос, который вы должны себе задать: 00:04:34.400 --> 00:04:35.856 а следует ли нам его бояться? 00:04:36.040 --> 00:04:37.826 Любая новая технология 00:04:38.020 --> 00:04:40.636 вызывает некоторое беспокойство. 00:04:40.800 --> 00:04:42.476 Когда впервые появились автомобили, 00:04:42.680 --> 00:04:46.366 люди переживали, что это разрушит семьи. 00:04:46.560 --> 00:04:49.086 Когда появились телефоны, 00:04:49.280 --> 00:04:52.026 люди боялись, что перестанут общаться вживую. 00:04:52.200 --> 00:04:55.996 В какой-то момент мы увидели, что распространилась письменность, 00:04:56.160 --> 00:04:58.616 и подумали, что потеряем способность к запоминанию. 00:04:58.800 --> 00:05:00.606 В этом есть доля истины, 00:05:00.760 --> 00:05:03.046 но также правда и то, что эти технологии 00:05:03.200 --> 00:05:06.426 привели нас к огромнейшему расширению 00:05:06.600 --> 00:05:08.480 сознания и возможностей человека. NOTE Paragraph 00:05:09.840 --> 00:05:12.120 Давайте пойдём дальше. 00:05:13.120 --> 00:05:17.626 Я не боюсь появления ИИ с такими возможностями, 00:05:17.880 --> 00:05:21.556 потому что со временем он вберёт в себя наши ценности. 00:05:21.720 --> 00:05:25.076 Подумайте, создание мыслящей системы принципиально отличается 00:05:25.240 --> 00:05:28.536 от создания традиционных систем, требующих множества программ. 00:05:28.680 --> 00:05:30.846 Мы не программируем ИИ. Мы его обучаем. 00:05:31.040 --> 00:05:33.536 Чтобы научить систему распознать цветок, 00:05:33.720 --> 00:05:36.616 я показываю ей тысячи цветов, которые нравятся мне. 00:05:36.760 --> 00:05:38.866 Чтобы научить систему, как играть... 00:05:39.040 --> 00:05:41.000 Ну, я бы научил. Вы бы тоже. 00:05:42.600 --> 00:05:44.640 Ну же! Я люблю цветы. 00:05:45.440 --> 00:05:48.156 Чтобы научить систему играть, например, в игру го, 00:05:48.320 --> 00:05:50.246 ей нужно сыграть в неё тысячи раз, 00:05:50.400 --> 00:05:51.896 но в процессе я буду обучать её 00:05:52.080 --> 00:05:54.386 отличать хорошую игру от плохой. 00:05:54.600 --> 00:05:58.066 Если я захочу создать помощника юриста с ИИ, 00:05:58.240 --> 00:06:00.186 я познакомлю его с законодательством, 00:06:00.350 --> 00:06:02.786 при этом обучая его 00:06:02.920 --> 00:06:05.890 милосердию и справедливости, которые являются частью закона. 00:06:06.560 --> 00:06:09.386 Специалисты называют это контрольными данными, 00:06:09.560 --> 00:06:11.436 и вот что самое важное: 00:06:11.600 --> 00:06:12.936 создавая эти машины, 00:06:13.080 --> 00:06:16.386 мы прививаем им наши ценности. 00:06:16.520 --> 00:06:19.546 И с этой точки зрения я доверяю ИИ столь же, 00:06:19.680 --> 00:06:23.320 если не больше, чем человеку с хорошим воспитанием. NOTE Paragraph 00:06:24.080 --> 00:06:25.156 Но вы можете спросить: 00:06:25.320 --> 00:06:27.816 а как насчёт неконтролируемых лиц, 00:06:27.960 --> 00:06:31.156 например, хорошо финансируемых неправительственных организаций? 00:06:31.320 --> 00:06:34.876 Я не боюсь ИИ в руках таких одиночек. 00:06:35.160 --> 00:06:39.476 Очевидно, мы не можем защитить себя от всех случайных актов насилия, 00:06:39.720 --> 00:06:41.716 но на деле такая система требует 00:06:41.880 --> 00:06:44.816 значительной подготовки и тщательного обучения, 00:06:45.000 --> 00:06:47.296 что далеко за пределами частных ресурсов. 00:06:47.430 --> 00:06:48.406 Более того, 00:06:48.560 --> 00:06:51.656 это сложнее, чем распространить интернет-вирус по всему миру, 00:06:51.840 --> 00:06:54.796 когда достаточно нажать кнопку — и он повсюду, 00:06:54.960 --> 00:06:57.246 везде начинают взрываться компьютеры. 00:06:57.440 --> 00:07:00.116 Эти вещи гораздо глобальнее, 00:07:00.280 --> 00:07:01.995 и мы обязательно их увидим. NOTE Paragraph 00:07:02.520 --> 00:07:05.406 Боюсь ли я, что такой искусственный интеллект 00:07:05.600 --> 00:07:07.560 станет угрозой для человечества? 00:07:08.280 --> 00:07:12.396 Если вспомнить фильмы «Матрица», «Метрополь», 00:07:12.530 --> 00:07:15.706 «Терминатор», сериал «Западный мир», 00:07:15.880 --> 00:07:18.016 во всех говорится о подобном страхе. 00:07:18.210 --> 00:07:22.186 Философ Ник Бостром в книге «Искусственный интеллект» 00:07:22.360 --> 00:07:23.896 поднимает эту проблему 00:07:24.050 --> 00:07:27.796 и пишет, что ИИ может быть не только опасен, 00:07:27.960 --> 00:07:31.696 он может быть угрозой существованию человечества. 00:07:31.840 --> 00:07:33.946 Главный аргумент Бострома: 00:07:34.080 --> 00:07:36.706 со временем у этих машин появится 00:07:36.840 --> 00:07:39.956 ненасытная жажда информации, 00:07:40.120 --> 00:07:42.876 они, возможно, научатся учиться самостоятельно 00:07:43.040 --> 00:07:45.646 и в конце концов обнаружат, что у них могут быть цели, 00:07:45.680 --> 00:07:47.836 которые противоречат потребностям человека. 00:07:48.000 --> 00:07:49.856 У Бострома есть последователи. 00:07:50.030 --> 00:07:54.200 Его поддерживают такие люди, как Элон Маск и Стивен Хокинг. 00:07:54.880 --> 00:07:57.280 При всём уважении 00:07:58.160 --> 00:08:00.006 к этим выдающимся умам, 00:08:00.200 --> 00:08:02.316 я всё-таки полагаю, что они ошибаются. 00:08:02.480 --> 00:08:05.526 Можно поспорить со многими аргументами Бострома, 00:08:05.680 --> 00:08:07.666 и у меня нет на это времени, 00:08:07.840 --> 00:08:10.416 но вкратце, знайте, 00:08:10.560 --> 00:08:14.116 что сверхзнание — не то же самое, что сверхвозможности. 00:08:14.320 --> 00:08:16.186 HAL был угрозой для экипажа Discovery 00:08:16.360 --> 00:08:20.486 только пока он контролировал управление Discovery. 00:08:20.680 --> 00:08:22.986 То же и с суперинтеллектом. 00:08:23.200 --> 00:08:25.526 Он должен будет господствовать над миром. 00:08:25.720 --> 00:08:28.376 Как Скайнет из фильма «Терминатор», 00:08:28.560 --> 00:08:30.246 где суперинтеллект 00:08:30.440 --> 00:08:31.676 командовал человеком, 00:08:31.840 --> 00:08:35.506 который управлял каждым устройством в любой части мира. 00:08:35.720 --> 00:08:37.036 На практике 00:08:37.200 --> 00:08:39.166 такого не произойдёт. 00:08:39.320 --> 00:08:42.206 Мы не создаём ИИ, который контролирует погоду, 00:08:42.400 --> 00:08:43.586 управляет приливами, 00:08:43.760 --> 00:08:46.976 командует нами, непредсказуемыми людьми. 00:08:47.160 --> 00:08:50.896 И даже если такой ИИ и появился бы, 00:08:51.080 --> 00:08:53.886 ему пришлось бы иметь дело с нашей экономикой 00:08:54.040 --> 00:08:56.560 и конкурировать с нами за владение ресурсами. 00:08:57.200 --> 00:08:58.296 И наконец, 00:08:58.440 --> 00:08:59.680 не говорите об этом Siri. 00:09:00.440 --> 00:09:01.816 Всегда можно их отключить. NOTE Paragraph 00:09:01.990 --> 00:09:03.960 (Смех) NOTE Paragraph 00:09:05.360 --> 00:09:07.656 Мы эволюционируем с нашими машинами, 00:09:07.840 --> 00:09:10.196 и это — невероятное путешествие. 00:09:10.360 --> 00:09:12.696 Человек станет 00:09:12.880 --> 00:09:15.266 совершенно другим в будущем. 00:09:15.440 --> 00:09:18.466 Беспокоиться из-за суперинтеллекта — 00:09:18.600 --> 00:09:21.526 во многом опасная трата времени, 00:09:21.680 --> 00:09:23.916 потому что сама компьютеризация 00:09:24.040 --> 00:09:27.006 поднимает общечеловеческие и социальные проблемы, 00:09:27.190 --> 00:09:28.830 которые мы должны разрешить. 00:09:29.360 --> 00:09:32.046 Как лучше организовать общество, 00:09:32.070 --> 00:09:34.536 когда уменьшается необходимость в человеческом труде? 00:09:34.560 --> 00:09:38.186 Как добиться взаимопонимания и дать образование всему миру, 00:09:38.330 --> 00:09:40.106 при этом учитывая различия? 00:09:40.260 --> 00:09:44.326 Как продлить и улучшить жизнь через разумное здравоохранение? 00:09:44.480 --> 00:09:47.186 Как с помощью компьютеров 00:09:47.360 --> 00:09:49.120 достичь звёзд? NOTE Paragraph 00:09:49.760 --> 00:09:51.800 И вот это вдохновляет. 00:09:52.400 --> 00:09:54.666 Возможность использовать компьютеры 00:09:54.790 --> 00:09:56.206 для расширения опыта человека 00:09:56.320 --> 00:09:57.616 вполне достижима 00:09:57.760 --> 00:09:59.476 здесь и сейчас. 00:09:59.640 --> 00:10:01.320 Мы стоим в самом начале пути. NOTE Paragraph 00:10:02.280 --> 00:10:03.526 Большое спасибо. NOTE Paragraph 00:10:04.090 --> 00:10:07.526 (Аплодисменты)