WEBVTT 00:00:00.960 --> 00:00:03.936 Эта история началась в 1985 году, 00:00:03.960 --> 00:00:05.936 когда в 22-летнем возрасте 00:00:05.960 --> 00:00:08.336 я стал Чемпионом мира по шахматам, 00:00:08.360 --> 00:00:11.560 победив Анатолия Карпова. 00:00:12.480 --> 00:00:13.736 В начале того же года 00:00:13.760 --> 00:00:17.376 я проводил так называемый сеанс одновременной игры 00:00:17.400 --> 00:00:21.696 против 32 лучших в мире шахматных вычислительных машин 00:00:21.720 --> 00:00:23.080 в Гамбурге в Германии. 00:00:24.160 --> 00:00:25.360 Я выиграл все матчи, 00:00:26.560 --> 00:00:29.736 и в то время никому не казалось чем-то удивительным то, 00:00:29.760 --> 00:00:33.800 что я смог выиграть у 32 компьютеров одновременно. 00:00:34.480 --> 00:00:37.056 Для меня это было золотое время. NOTE Paragraph 00:00:37.080 --> 00:00:39.176 (Смех) NOTE Paragraph 00:00:39.200 --> 00:00:40.720 Машины играли слабо, 00:00:41.680 --> 00:00:43.016 а волосы держались крепко. NOTE Paragraph 00:00:43.040 --> 00:00:45.240 (Смех) NOTE Paragraph 00:00:46.720 --> 00:00:48.776 Но уже 12 годами позже 00:00:48.800 --> 00:00:53.416 я сражался не на жизнь, а на смерть против одного единственного компьютера 00:00:53.440 --> 00:00:54.640 в матче, 00:00:55.360 --> 00:00:57.416 названном на обложке «Newsweek» 00:00:57.440 --> 00:00:59.216 «Последним шансом разума». 00:00:59.240 --> 00:01:00.456 Совсем ненавязчиво. NOTE Paragraph 00:01:00.480 --> 00:01:02.000 (Смех) NOTE Paragraph 00:01:03.040 --> 00:01:05.616 От мифологии до научной фантастики 00:01:05.640 --> 00:01:08.376 поединок человека против машины 00:01:08.400 --> 00:01:11.160 часто представляется, как вопрос жизни и смерти. 00:01:11.960 --> 00:01:13.536 Джон Генри, 00:01:13.560 --> 00:01:15.256 «стальной молоток», 00:01:15.280 --> 00:01:19.056 легендарный афро-американский супергерой XIX века, 00:01:19.080 --> 00:01:23.206 соревновался с паровым молотом 00:01:23.240 --> 00:01:25.600 в пробивании тоннеля в скале. 00:01:26.800 --> 00:01:31.000 Легенда о Джоне Генри — часть давно сложившейся парадигмы 00:01:31.680 --> 00:01:34.760 противостояния человека технологиям. 00:01:36.200 --> 00:01:39.080 Эта риторика соперничества доминирует и по сей день. 00:01:39.560 --> 00:01:41.520 Мы учавствуем в гонке против машин, 00:01:42.360 --> 00:01:44.440 это сражение, если не война. 00:01:45.880 --> 00:01:47.496 Нас лишают работы. 00:01:47.520 --> 00:01:51.080 Людей заменяют, как будто они уже исчезли с лица Земли. 00:01:52.240 --> 00:01:55.736 Достаточно вспомнить, что такие фильмы, как «Терминатор» или «Матрица», 00:01:55.770 --> 00:01:57.780 считаются реальностью. NOTE Paragraph 00:01:59.640 --> 00:02:03.960 Есть лишь немного областей, 00:02:05.360 --> 00:02:09.616 где тело и разум человека могут на равных соперничать 00:02:09.639 --> 00:02:11.480 с компьютером или роботом. 00:02:12.280 --> 00:02:14.138 Мне бы хотелось, чтобы их было больше. 00:02:15.760 --> 00:02:16.960 Вместо этого 00:02:17.840 --> 00:02:22.496 я оказался одновременно благословлён и проклят, 00:02:22.520 --> 00:02:25.216 став олицетворением поражения 00:02:25.240 --> 00:02:28.336 в противостоянии человека и машины, 00:02:28.360 --> 00:02:30.240 о котором говорят до сих пор. 00:02:33.120 --> 00:02:38.136 В самом знаменитом после Джона Генри поединке человека с машиной 00:02:38.160 --> 00:02:40.736 я сыграл два матча 00:02:40.760 --> 00:02:44.200 против Deep Blue — суперкомпьютера IBM. 00:02:47.030 --> 00:02:49.216 Никто уже не помнит, что я выиграл первый матч. NOTE Paragraph 00:02:49.240 --> 00:02:51.576 (Смех) NOTE Paragraph 00:02:51.600 --> 00:02:55.000 (Аплодисменты) NOTE Paragraph 00:02:55.920 --> 00:03:00.896 Это было в Филадельфии, до проиграша на следующий год в Нью-Йорке. 00:03:00.920 --> 00:03:03.180 Но, по-моему, это справедливо. 00:03:04.320 --> 00:03:09.416 Ведь не отмечены же какими-то особыми датами в истории 00:03:09.440 --> 00:03:12.936 все провалившиеся попытки покорить Эверест 00:03:12.960 --> 00:03:15.696 до того, как сэр Эдмунд Хиллари вместе с Тэнцингом Норгеем 00:03:15.720 --> 00:03:16.920 достигли его вершины. 00:03:17.960 --> 00:03:21.720 Я всё ещё был чемпионом мира в 1997 году, 00:03:24.520 --> 00:03:28.720 когда компьютеры наконец «доросли» до шахмат. 00:03:29.520 --> 00:03:31.496 Я был тогда вершиной Эвереста, 00:03:31.520 --> 00:03:33.120 которую покорил Deep Blue. 00:03:34.600 --> 00:03:38.656 Должен сказать, что, разумеется, это сделал не Deep Blue, 00:03:38.680 --> 00:03:40.816 а его создатели: 00:03:40.840 --> 00:03:44.176 Анансараман, Кэмпбелл, Хоэн, Сю. 00:03:44.200 --> 00:03:45.400 Снимаю перед ними шляпу. 00:03:46.840 --> 00:03:51.256 Как всегда, победа машины была человеческим триумфом, 00:03:51.280 --> 00:03:56.040 о чём мы склонны забывать, когда созданное нами же превосходит нас. NOTE Paragraph 00:03:58.360 --> 00:03:59.800 Deep Blue победил, 00:04:01.400 --> 00:04:02.810 но был ли он при этом умён? 00:04:03.360 --> 00:04:05.120 Нет, не был. 00:04:06.200 --> 00:04:09.496 Во всяком случае не в том смысле, о каком мечтали Алан Тюринг 00:04:09.520 --> 00:04:12.530 и другие основоположники информатики. 00:04:13.240 --> 00:04:18.016 Оказалось, что шахматы можно постичь с примением грубой силы, 00:04:18.040 --> 00:04:22.296 то есть при достаточно быстрых процессорах 00:04:22.320 --> 00:04:25.280 и достаточно смышлёных алгоритмах. 00:04:26.760 --> 00:04:30.456 Хотя по факту достижения результата — 00:04:30.480 --> 00:04:33.696 игры в шахматы на гроссмейстерском уровне — 00:04:33.720 --> 00:04:35.000 Deep Blue был умён. 00:04:37.320 --> 00:04:39.720 Но даже при невероятной скорости 00:04:40.560 --> 00:04:43.760 в 200 миллионов комбинаций в секунду, 00:04:45.360 --> 00:04:46.560 метод Deep Blue 00:04:47.360 --> 00:04:53.960 не приблизил нас, как того хотелось, к разгадкам тайн человеческого разума. NOTE Paragraph 00:04:56.960 --> 00:04:58.776 Очень скоро 00:04:58.800 --> 00:05:01.376 роботы станут водителями такси, 00:05:01.400 --> 00:05:03.816 врачами и профессорами, 00:05:03.840 --> 00:05:06.440 но будут ли они «разумны»? 00:05:07.840 --> 00:05:10.336 Я бы предпочёл оставить этот вопрос 00:05:10.360 --> 00:05:13.920 философам и составителям словарей. 00:05:15.440 --> 00:05:19.320 Важно то, какие чувства мы, люди, 00:05:20.320 --> 00:05:23.920 испытываем, живя и работая бок о бок с этими машинами. NOTE Paragraph 00:05:26.160 --> 00:05:31.416 Когда мне впервые представили Deep Blue в феврале 1996 года, 00:05:31.440 --> 00:05:34.040 я уже был чемпионом мира более десяти лет, 00:05:36.080 --> 00:05:40.096 и я сыграл 182 игры на мировых чемпионатах 00:05:40.120 --> 00:05:45.216 и сотни игр против других мастеров в различных состязаниях. 00:05:45.240 --> 00:05:50.296 Я знал, чего ожидать от своих соперников 00:05:50.320 --> 00:05:52.000 и чего ожидать от самого себя. 00:05:52.680 --> 00:05:57.856 Я привык предугадывать их ходы 00:05:57.880 --> 00:06:01.496 и оценивать их эмоциональное состояние, 00:06:01.520 --> 00:06:05.360 наблюдая за их жестами и поведением, глядя им в глаза. NOTE Paragraph 00:06:05.880 --> 00:06:09.880 И тут я оказался перед шахматной доской напротив Deep Blue. 00:06:12.960 --> 00:06:15.816 Я немедленно ощутил некую новизну, 00:06:15.840 --> 00:06:17.160 некий дискомфорт. 00:06:19.440 --> 00:06:22.240 Нечто вроде того, что вы бы почувствовали 00:06:23.320 --> 00:06:25.856 во время первой поездки на автомобиле без водителя 00:06:25.880 --> 00:06:30.720 или когда ваш новый компьютерный босс отдал бы первое распоряжение. 00:06:33.800 --> 00:06:36.920 Во время той первой игры 00:06:38.080 --> 00:06:40.216 я не был уверен, 00:06:40.240 --> 00:06:43.920 чего можно было от этой штуковины ожидать. 00:06:44.920 --> 00:06:48.500 Технологии развиваются стремительно, и IBM вложила в это солидные средства. 00:06:48.680 --> 00:06:49.880 Я проиграл тот матч. 00:06:52.320 --> 00:06:54.096 И меня не оставляла мысль: 00:06:54.120 --> 00:06:56.010 а можно ли его вообще победить? 00:06:56.600 --> 00:06:59.510 Пришёл ли конец моей излюбленной игре в шахматы? 00:07:00.800 --> 00:07:04.936 То были естественные человеческие сомнения и страхи, 00:07:04.960 --> 00:07:06.760 и я был совершенно уверен в том, 00:07:07.380 --> 00:07:10.296 что мой оппонент Deep Blue никаких беспокойств не испытывал. NOTE Paragraph 00:07:10.320 --> 00:07:12.080 (Смех) NOTE Paragraph 00:07:13.920 --> 00:07:15.730 После того сокрушительного удара 00:07:16.400 --> 00:07:18.080 я сражался снова 00:07:19.000 --> 00:07:20.610 и отыграл первую партию, 00:07:20.960 --> 00:07:22.600 но написанного не сотрёшь. 00:07:24.400 --> 00:07:26.536 Пускай я проиграл машине, 00:07:26.560 --> 00:07:29.616 но я по крайней мере не удостоился судьбы Джона Генри, 00:07:29.640 --> 00:07:33.000 который, победив, погиб от истощения с молотом в руке. 00:07:37.720 --> 00:07:40.256 Оказалось, что миру шахмат 00:07:40.280 --> 00:07:43.520 всё ещё нужен был чемпион мира в человеческом обличии. 00:07:44.920 --> 00:07:46.600 И даже сегодня, 00:07:48.080 --> 00:07:51.536 когда бесплатные шахматные приложения на последних моделях телефонов 00:07:51.560 --> 00:07:53.576 мощнее Deep Blue, 00:07:53.600 --> 00:07:55.480 люди всё ещё играют в шахматы 00:07:56.680 --> 00:07:58.920 и даже больше, чем когда-либо. 00:07:59.800 --> 00:08:03.016 Пессимисты предрекали, что никто не захочет играть в игру, 00:08:03.040 --> 00:08:05.296 в которой может победить машина, 00:08:05.320 --> 00:08:07.536 и оказались неправы, и это доказано, 00:08:07.560 --> 00:08:11.016 но мрачные предсказания в отношении технологий всегда были 00:08:11.040 --> 00:08:12.960 популярным времяпрепровождением. NOTE Paragraph 00:08:14.360 --> 00:08:17.096 Я на собственном опыте убедился, 00:08:17.120 --> 00:08:21.776 что страхам надо смотреть в лицо, 00:08:21.800 --> 00:08:25.520 если мы хотим извлечь максимум из того, что есть в технологиях, 00:08:26.360 --> 00:08:28.736 и что надо побеждать эти страхи, 00:08:28.760 --> 00:08:34.000 если мы хотим сохранить всё самое лучшее, что есть в человечности. 00:08:36.120 --> 00:08:37.895 Пока я зализывал раны, 00:08:37.919 --> 00:08:40.090 меня посетило вдохновение 00:08:41.080 --> 00:08:43.775 по поводу поединков против Deep Blue. 00:08:43.799 --> 00:08:47.180 Как говорится в русской пословице: не можешь победить — присоединяйся! 00:08:48.880 --> 00:08:50.256 Тогда я подумал: 00:08:50.280 --> 00:08:52.616 а что, если сыграть вместе с компьютером, 00:08:52.640 --> 00:08:55.800 имея компьютер на своей стороне, объединив наши силы — 00:08:57.160 --> 00:09:00.936 человеческую интуицию с машинными расчётами, 00:09:00.960 --> 00:09:03.656 человеческую стратегию с машинной тактикой, 00:09:03.680 --> 00:09:06.096 человеческий опыт с машинной памятью? 00:09:06.120 --> 00:09:08.770 Получилась бы тогда идеальная игра всех времён? NOTE Paragraph 00:09:10.000 --> 00:09:12.000 Моя идея вопротилась в жизнь 00:09:12.920 --> 00:09:16.296 в 1998 под названием «адванс» или продвинутые шахматы, 00:09:16.320 --> 00:09:22.000 когда я играл в состязании человека и машины против другого элитного игрока. 00:09:23.280 --> 00:09:25.176 Но в том первом эксперименте 00:09:25.200 --> 00:09:31.560 у нас не получилось эффективно сочетать способности человека и машины. 00:09:34.920 --> 00:09:37.500 Адванс занял свою нишу в интернете, 00:09:38.160 --> 00:09:43.016 и в 2005 соревнования по так называемым фристайл-шахматам 00:09:43.040 --> 00:09:44.400 стали настоящим открытием. 00:09:47.240 --> 00:09:50.776 В нём участвовали гроссмейстеры и ведущие шахматные компьютеры, 00:09:50.800 --> 00:09:53.536 однако победителями стали не гроссмейстеры 00:09:53.560 --> 00:09:54.920 и не суперкомпьютеры. 00:09:55.680 --> 00:10:00.016 Победителями стали двое американских игроков-любителей, 00:10:00.040 --> 00:10:03.200 одновременно управлявших тремя обычными домашними компьютерами. 00:10:05.560 --> 00:10:08.576 Их умение эффективно направлять машины 00:10:08.600 --> 00:10:14.376 превзошло глубочайшие знания шахмат 00:10:14.400 --> 00:10:16.026 игравших против них гроссмейстеров 00:10:16.056 --> 00:10:20.160 и намного бóльшие вычислительные мощности других компьютеров. 00:10:21.600 --> 00:10:23.560 Тогда-то я и вывел эту формулу. 00:10:24.560 --> 00:10:27.936 Слабый игрок плюс машина 00:10:27.960 --> 00:10:31.216 плюс мастерское управление превосходит 00:10:31.240 --> 00:10:33.656 не только более мощную машину, 00:10:33.680 --> 00:10:37.576 но, что ещё поразительнее, превосходит сильного игрока 00:10:37.600 --> 00:10:39.560 плюс компьютер 00:10:41.120 --> 00:10:43.520 при более слабом управлении. 00:10:46.360 --> 00:10:48.770 Это убедило меня в том, что нам понадобятся 00:10:50.000 --> 00:10:53.680 более совершенные интерфейсы, чтобы помогать компьютерным процессам 00:10:54.520 --> 00:10:56.240 становиться более разумными. NOTE Paragraph 00:10:58.320 --> 00:11:01.616 Человек плюс машина — это не будущее, 00:11:01.640 --> 00:11:02.856 это настоящее. 00:11:02.880 --> 00:11:07.016 Любой, кто пользовался автоматическим переводом, 00:11:07.040 --> 00:11:11.336 чтобы уловить суть новостной статьи из иностранной онлайн-газеты, 00:11:11.360 --> 00:11:13.080 знает, что он далёк от совершенства. 00:11:13.680 --> 00:11:15.776 И когда мы добавляем собственный опыт, 00:11:15.800 --> 00:11:17.896 чтобы прочитанное обрело смысл, 00:11:17.920 --> 00:11:20.696 машина учится на наших исправлениях. 00:11:20.720 --> 00:11:25.680 Эта модель распространяется и применяется в медицинской диагностике, в безопасности. 00:11:26.440 --> 00:11:28.560 Машины перемалывают данные, 00:11:29.320 --> 00:11:31.056 вычисляют вероятности, 00:11:31.080 --> 00:11:34.736 доводят точность до 80%, до 90%, 00:11:34.760 --> 00:11:39.136 упрощая данные для анализа 00:11:39.160 --> 00:11:41.760 и процесса принятия решений человеком. 00:11:42.280 --> 00:11:47.120 Только не думаю, что вы отправите детей 00:11:48.000 --> 00:11:51.560 в школу на самоуправляемой машине с 90-процентной точностью 00:11:52.600 --> 00:11:54.200 или даже с точностью в 99%. 00:11:55.560 --> 00:11:58.416 Поэтому нам необходим скачок, 00:11:58.440 --> 00:12:04.600 который добавит эти жизненноважные недостающие знаки после запятой. NOTE Paragraph 00:12:07.160 --> 00:12:11.200 Спустя 20 лет после моего матча против Deep Blue, 00:12:12.200 --> 00:12:13.816 моего второго матча, 00:12:13.840 --> 00:12:20.136 тот сенсационный заголовок: «Последний шанс разума» 00:12:20.160 --> 00:12:21.736 стал избитой истиной 00:12:21.760 --> 00:12:24.296 в отношении искусственного интеллекта, 00:12:24.320 --> 00:12:25.520 надвигающегося 00:12:26.560 --> 00:12:29.170 казалось бы, с каждым днём всё глубже в каждый сектор. 00:12:30.160 --> 00:12:33.256 Однако, вопреки прошлому, 00:12:33.280 --> 00:12:34.920 когда машины заменяли 00:12:36.480 --> 00:12:38.856 сельскохозяйственных животных, ручной труд, 00:12:38.880 --> 00:12:41.376 сейчас они угрожают людям с дипломами 00:12:41.400 --> 00:12:42.680 и политическим влиянием. 00:12:44.120 --> 00:12:46.216 И как тот, кто сражался с машиной и проиграл, 00:12:46.240 --> 00:12:49.260 я пришёл сказать вам, что это замечательная, отличная новость. 00:12:51.000 --> 00:12:53.216 В конце концов любой профессионал 00:12:53.240 --> 00:12:55.336 испытает на себе это давление, 00:12:55.360 --> 00:13:00.960 иначе человечество перестанет развиваться. 00:13:02.760 --> 00:13:03.960 Не нам 00:13:05.440 --> 00:13:07.160 выбирать, 00:13:08.480 --> 00:13:11.200 где и когда остановить технологический прогресс. 00:13:13.160 --> 00:13:14.520 Мы не можем 00:13:15.960 --> 00:13:17.456 замедлиться. 00:13:17.480 --> 00:13:19.296 Говоря по правде, 00:13:19.320 --> 00:13:21.490 нам впору ускоряться. 00:13:24.600 --> 00:13:27.240 Технологии отлично справляются с устранением 00:13:29.200 --> 00:13:32.560 сложностей и неопределённостей из нашей жизни, 00:13:35.000 --> 00:13:37.816 так что мы должны искать 00:13:37.840 --> 00:13:39.696 ещё более сложные, 00:13:39.720 --> 00:13:43.800 ещё более неопределённые задачи. 00:13:48.200 --> 00:13:49.400 Машины способны 00:13:51.880 --> 00:13:53.696 на вычисления. 00:13:53.720 --> 00:13:55.296 Мы способны на понимание. 00:13:55.320 --> 00:13:57.360 У машин есть инструкции. 00:13:58.840 --> 00:14:00.696 У нас есть цели. 00:14:00.720 --> 00:14:03.000 Машинам присуща 00:14:05.080 --> 00:14:06.296 объективность. 00:14:06.320 --> 00:14:07.770 Нам присуща увлечённость. 00:14:08.600 --> 00:14:14.576 Нам не следует беспокоиться о том, на что машины способны сегодня. 00:14:14.600 --> 00:14:19.176 Нам следует беспокоиться о том, на что они пока ещё не способны, 00:14:19.200 --> 00:14:24.696 потому что нам понадобится помощь новых, умных машин, 00:14:24.720 --> 00:14:28.800 чтобы воплотить наши величайшие мечты в реальность. 00:14:30.000 --> 00:14:31.320 И если нам не удастся, 00:14:32.240 --> 00:14:36.896 если не удастся, то это не потому, что машины окажутся слишком умны 00:14:36.920 --> 00:14:38.320 или недостаточно умны. 00:14:39.200 --> 00:14:42.280 Если нам не удастся, то это оттого, что мы избаловались 00:14:43.680 --> 00:14:45.490 и умалили собственные амбиции. 00:14:46.520 --> 00:14:49.560 Наше человеческое начало не определяется набором навыков, 00:14:51.280 --> 00:14:53.960 вроде махания молотом или даже игры в шахматы. NOTE Paragraph 00:14:54.560 --> 00:14:57.576 Единственная вещь, на которую способны только люди, — 00:14:57.600 --> 00:14:58.800 это мечтать. 00:15:00.120 --> 00:15:02.656 Так давайте мечтать о большем. NOTE Paragraph 00:15:02.680 --> 00:15:03.896 Спасибо. NOTE Paragraph 00:15:03.920 --> 00:15:07.807 (Аплодисменты)