0:00:00.960,0:00:03.936 Эта история началась в 1985 году, 0:00:03.960,0:00:05.936 когда в 22-летнем возрасте 0:00:05.960,0:00:08.336 я стал Чемпионом мира по шахматам, 0:00:08.360,0:00:11.560 победив Анатолия Карпова. 0:00:12.480,0:00:13.736 В начале того же года 0:00:13.760,0:00:17.376 я проводил так называемый[br]сеанс одновременной игры 0:00:17.400,0:00:21.696 против 32 лучших в мире[br]шахматных вычислительных машин 0:00:21.720,0:00:23.080 в Гамбурге в Германии. 0:00:24.160,0:00:25.360 Я выиграл все матчи, 0:00:26.560,0:00:29.736 и в то время никому не казалось[br]чем-то удивительным то, 0:00:29.760,0:00:33.800 что я смог выиграть[br]у 32 компьютеров одновременно. 0:00:34.480,0:00:37.056 Для меня это было золотое время. 0:00:37.080,0:00:39.176 (Смех) 0:00:39.200,0:00:40.720 Машины играли слабо, 0:00:41.680,0:00:43.016 а волосы держались крепко. 0:00:43.040,0:00:45.240 (Смех) 0:00:46.720,0:00:48.776 Но уже 12 годами позже 0:00:48.800,0:00:53.416 я сражался не на жизнь, а на смерть[br]против одного единственного компьютера 0:00:53.440,0:00:54.640 в матче, 0:00:55.360,0:00:57.416 названном на обложке «Newsweek» 0:00:57.440,0:00:59.216 «Последним шансом разума». 0:00:59.240,0:01:00.456 Совсем ненавязчиво. 0:01:00.480,0:01:02.000 (Смех) 0:01:03.040,0:01:05.616 От мифологии до научной фантастики 0:01:05.640,0:01:08.376 поединок человека против машины 0:01:08.400,0:01:11.160 часто представляется,[br]как вопрос жизни и смерти. 0:01:11.960,0:01:13.536 Джон Генри, 0:01:13.560,0:01:15.256 «стальной молоток», 0:01:15.280,0:01:19.056 легендарный афро-американский[br]супергерой XIX века, 0:01:19.080,0:01:23.206 соревновался с паровым молотом 0:01:23.240,0:01:25.600 в пробивании тоннеля в скале. 0:01:26.800,0:01:31.000 Легенда о Джоне Генри —[br]часть давно сложившейся парадигмы 0:01:31.680,0:01:34.760 противостояния человека технологиям. 0:01:36.200,0:01:39.080 Эта риторика соперничества[br]доминирует и по сей день. 0:01:39.560,0:01:41.520 Мы учавствуем в гонке против машин, 0:01:42.360,0:01:44.440 это сражение, если не война. 0:01:45.880,0:01:47.496 Нас лишают работы. 0:01:47.520,0:01:51.080 Людей заменяют, как будто[br]они уже исчезли с лица Земли. 0:01:52.240,0:01:55.736 Достаточно вспомнить, что такие фильмы,[br]как «Терминатор» или «Матрица», 0:01:55.770,0:01:57.780 считаются реальностью. 0:01:59.640,0:02:03.960 Есть лишь немного областей, 0:02:05.360,0:02:09.616 где тело и разум человека[br]могут на равных соперничать 0:02:09.639,0:02:11.480 с компьютером или роботом. 0:02:12.280,0:02:14.138 Мне бы хотелось, чтобы их было больше. 0:02:15.760,0:02:16.960 Вместо этого 0:02:17.840,0:02:22.496 я оказался одновременно[br]благословлён и проклят, 0:02:22.520,0:02:25.216 став олицетворением поражения 0:02:25.240,0:02:28.336 в противостоянии человека и машины, 0:02:28.360,0:02:30.240 о котором говорят до сих пор. 0:02:33.120,0:02:38.136 В самом знаменитом после Джона Генри[br]поединке человека с машиной 0:02:38.160,0:02:40.736 я сыграл два матча 0:02:40.760,0:02:44.200 против Deep Blue — суперкомпьютера IBM. 0:02:47.030,0:02:49.216 Никто уже не помнит,[br]что я выиграл первый матч. 0:02:49.240,0:02:51.576 (Смех) 0:02:51.600,0:02:55.000 (Аплодисменты) 0:02:55.920,0:03:00.896 Это было в Филадельфии, до проиграша[br]на следующий год в Нью-Йорке. 0:03:00.920,0:03:03.180 Но, по-моему, это справедливо. 0:03:04.320,0:03:09.416 Ведь не отмечены же какими-то[br]особыми датами в истории 0:03:09.440,0:03:12.936 все провалившиеся попытки[br]покорить Эверест 0:03:12.960,0:03:15.696 до того, как сэр Эдмунд Хиллари[br]вместе с Тэнцингом Норгеем 0:03:15.720,0:03:16.920 достигли его вершины. 0:03:17.960,0:03:21.720 Я всё ещё был чемпионом мира в 1997 году, 0:03:24.520,0:03:28.720 когда компьютеры наконец[br]«доросли» до шахмат. 0:03:29.520,0:03:31.496 Я был тогда вершиной Эвереста, 0:03:31.520,0:03:33.120 которую покорил Deep Blue. 0:03:34.600,0:03:38.656 Должен сказать, что, разумеется,[br]это сделал не Deep Blue, 0:03:38.680,0:03:40.816 а его создатели: 0:03:40.840,0:03:44.176 Анансараман, Кэмпбелл, Хоэн, Сю. 0:03:44.200,0:03:45.400 Снимаю перед ними шляпу. 0:03:46.840,0:03:51.256 Как всегда, победа машины[br]была человеческим триумфом, 0:03:51.280,0:03:56.040 о чём мы склонны забывать,[br]когда созданное нами же превосходит нас. 0:03:58.360,0:03:59.800 Deep Blue победил, 0:04:01.400,0:04:02.810 но был ли он при этом умён? 0:04:03.360,0:04:05.120 Нет, не был. 0:04:06.200,0:04:09.496 Во всяком случае не в том смысле,[br]о каком мечтали Алан Тюринг 0:04:09.520,0:04:12.530 и другие основоположники информатики. 0:04:13.240,0:04:18.016 Оказалось, что шахматы можно постичь[br]с примением грубой силы, 0:04:18.040,0:04:22.296 то есть при достаточно быстрых процессорах 0:04:22.320,0:04:25.280 и достаточно смышлёных алгоритмах. 0:04:26.760,0:04:30.456 Хотя по факту достижения результата — 0:04:30.480,0:04:33.696 игры в шахматы[br]на гроссмейстерском уровне — 0:04:33.720,0:04:35.000 Deep Blue был умён. 0:04:37.320,0:04:39.720 Но даже при невероятной скорости 0:04:40.560,0:04:43.760 в 200 миллионов комбинаций в секунду, 0:04:45.360,0:04:46.560 метод Deep Blue 0:04:47.360,0:04:53.960 не приблизил нас, как того хотелось,[br]к разгадкам тайн человеческого разума. 0:04:56.960,0:04:58.776 Очень скоро 0:04:58.800,0:05:01.376 роботы станут водителями такси, 0:05:01.400,0:05:03.816 врачами и профессорами, 0:05:03.840,0:05:06.440 но будут ли они «разумны»? 0:05:07.840,0:05:10.336 Я бы предпочёл оставить этот вопрос 0:05:10.360,0:05:13.920 философам и составителям словарей. 0:05:15.440,0:05:19.320 Важно то, какие чувства мы, люди, 0:05:20.320,0:05:23.920 испытываем, живя и работая[br]бок о бок с этими машинами. 0:05:26.160,0:05:31.416 Когда мне впервые представили[br]Deep Blue в феврале 1996 года, 0:05:31.440,0:05:34.040 я уже был чемпионом мира более десяти лет, 0:05:36.080,0:05:40.096 и я сыграл 182 игры на мировых чемпионатах 0:05:40.120,0:05:45.216 и сотни игр против других мастеров[br]в различных состязаниях. 0:05:45.240,0:05:50.296 Я знал, чего ожидать от своих соперников 0:05:50.320,0:05:52.000 и чего ожидать от самого себя. 0:05:52.680,0:05:57.856 Я привык предугадывать их ходы 0:05:57.880,0:06:01.496 и оценивать их эмоциональное состояние, 0:06:01.520,0:06:05.360 наблюдая за их жестами[br]и поведением, глядя им в глаза. 0:06:05.880,0:06:09.880 И тут я оказался перед шахматной доской[br]напротив Deep Blue. 0:06:12.960,0:06:15.816 Я немедленно ощутил некую новизну, 0:06:15.840,0:06:17.160 некий дискомфорт. 0:06:19.440,0:06:22.240 Нечто вроде того, что вы бы почувствовали 0:06:23.320,0:06:25.856 во время первой поездки[br]на автомобиле без водителя 0:06:25.880,0:06:30.720 или когда ваш новый компьютерный босс[br]отдал бы первое распоряжение. 0:06:33.800,0:06:36.920 Во время той первой игры 0:06:38.080,0:06:40.216 я не был уверен, 0:06:40.240,0:06:43.920 чего можно было от этой штуковины ожидать. 0:06:44.920,0:06:48.500 Технологии развиваются стремительно,[br]и IBM вложила в это солидные средства. 0:06:48.680,0:06:49.880 Я проиграл тот матч. 0:06:52.320,0:06:54.096 И меня не оставляла мысль: 0:06:54.120,0:06:56.010 а можно ли его вообще победить? 0:06:56.600,0:06:59.510 Пришёл ли конец моей[br]излюбленной игре в шахматы? 0:07:00.800,0:07:04.936 То были естественные человеческие[br]сомнения и страхи, 0:07:04.960,0:07:06.760 и я был совершенно уверен в том, 0:07:07.380,0:07:10.296 что мой оппонент Deep Blue[br]никаких беспокойств не испытывал. 0:07:10.320,0:07:12.080 (Смех) 0:07:13.920,0:07:15.730 После того сокрушительного удара 0:07:16.400,0:07:18.080 я сражался снова 0:07:19.000,0:07:20.610 и отыграл первую партию, 0:07:20.960,0:07:22.600 но написанного не сотрёшь. 0:07:24.400,0:07:26.536 Пускай я проиграл машине, 0:07:26.560,0:07:29.616 но я по крайней мере не удостоился[br]судьбы Джона Генри, 0:07:29.640,0:07:33.000 который, победив, погиб[br]от истощения с молотом в руке. 0:07:37.720,0:07:40.256 Оказалось, что миру шахмат 0:07:40.280,0:07:43.520 всё ещё нужен был чемпион мира[br]в человеческом обличии. 0:07:44.920,0:07:46.600 И даже сегодня, 0:07:48.080,0:07:51.536 когда бесплатные шахматные приложения[br]на последних моделях телефонов 0:07:51.560,0:07:53.576 мощнее Deep Blue, 0:07:53.600,0:07:55.480 люди всё ещё играют в шахматы 0:07:56.680,0:07:58.920 и даже больше, чем когда-либо. 0:07:59.800,0:08:03.016 Пессимисты предрекали,[br]что никто не захочет играть в игру, 0:08:03.040,0:08:05.296 в которой может победить машина, 0:08:05.320,0:08:07.536 и оказались неправы, и это доказано, 0:08:07.560,0:08:11.016 но мрачные предсказания[br]в отношении технологий всегда были 0:08:11.040,0:08:12.960 популярным времяпрепровождением. 0:08:14.360,0:08:17.096 Я на собственном опыте убедился, 0:08:17.120,0:08:21.776 что страхам надо смотреть в лицо, 0:08:21.800,0:08:25.520 если мы хотим извлечь максимум[br]из того, что есть в технологиях, 0:08:26.360,0:08:28.736 и что надо побеждать эти страхи, 0:08:28.760,0:08:34.000 если мы хотим сохранить всё самое[br]лучшее, что есть в человечности. 0:08:36.120,0:08:37.895 Пока я зализывал раны, 0:08:37.919,0:08:40.090 меня посетило вдохновение 0:08:41.080,0:08:43.775 по поводу поединков против Deep Blue. 0:08:43.799,0:08:47.180 Как говорится в русской пословице:[br]не можешь победить — присоединяйся! 0:08:48.880,0:08:50.256 Тогда я подумал: 0:08:50.280,0:08:52.616 а что, если сыграть вместе с компьютером, 0:08:52.640,0:08:55.800 имея компьютер на своей стороне,[br]объединив наши силы — 0:08:57.160,0:09:00.936 человеческую интуицию[br]с машинными расчётами, 0:09:00.960,0:09:03.656 человеческую стратегию[br]с машинной тактикой, 0:09:03.680,0:09:06.096 человеческий опыт с машинной памятью? 0:09:06.120,0:09:08.770 Получилась бы тогда[br]идеальная игра всех времён? 0:09:10.000,0:09:12.000 Моя идея вопротилась в жизнь 0:09:12.920,0:09:16.296 в 1998 под названием «адванс»[br]или продвинутые шахматы, 0:09:16.320,0:09:22.000 когда я играл в состязании человека[br]и машины против другого элитного игрока. 0:09:23.280,0:09:25.176 Но в том первом эксперименте 0:09:25.200,0:09:31.560 у нас не получилось эффективно[br]сочетать способности человека и машины. 0:09:34.920,0:09:37.500 Адванс занял свою нишу в интернете, 0:09:38.160,0:09:43.016 и в 2005 соревнования[br]по так называемым фристайл-шахматам 0:09:43.040,0:09:44.400 стали настоящим открытием. 0:09:47.240,0:09:50.776 В нём участвовали гроссмейстеры[br]и ведущие шахматные компьютеры, 0:09:50.800,0:09:53.536 однако победителями стали не гроссмейстеры 0:09:53.560,0:09:54.920 и не суперкомпьютеры. 0:09:55.680,0:10:00.016 Победителями стали двое[br]американских игроков-любителей, 0:10:00.040,0:10:03.200 одновременно управлявших тремя[br]обычными домашними компьютерами. 0:10:05.560,0:10:08.576 Их умение эффективно направлять машины 0:10:08.600,0:10:14.376 превзошло глубочайшие знания шахмат 0:10:14.400,0:10:16.026 игравших против них гроссмейстеров 0:10:16.056,0:10:20.160 и намного бóльшие вычислительные[br]мощности других компьютеров. 0:10:21.600,0:10:23.560 Тогда-то я и вывел эту формулу. 0:10:24.560,0:10:27.936 Слабый игрок плюс машина 0:10:27.960,0:10:31.216 плюс мастерское управление превосходит 0:10:31.240,0:10:33.656 не только более мощную машину, 0:10:33.680,0:10:37.576 но, что ещё поразительнее,[br]превосходит сильного игрока 0:10:37.600,0:10:39.560 плюс компьютер 0:10:41.120,0:10:43.520 при более слабом управлении. 0:10:46.360,0:10:48.770 Это убедило меня в том,[br]что нам понадобятся 0:10:50.000,0:10:53.680 более совершенные интерфейсы,[br]чтобы помогать компьютерным процессам 0:10:54.520,0:10:56.240 становиться более разумными. 0:10:58.320,0:11:01.616 Человек плюс машина — это не будущее, 0:11:01.640,0:11:02.856 это настоящее. 0:11:02.880,0:11:07.016 Любой, кто пользовался[br]автоматическим переводом, 0:11:07.040,0:11:11.336 чтобы уловить суть новостной статьи[br]из иностранной онлайн-газеты, 0:11:11.360,0:11:13.080 знает, что он далёк от совершенства. 0:11:13.680,0:11:15.776 И когда мы добавляем собственный опыт, 0:11:15.800,0:11:17.896 чтобы прочитанное обрело смысл, 0:11:17.920,0:11:20.696 машина учится на наших исправлениях. 0:11:20.720,0:11:25.680 Эта модель распространяется и применяется[br]в медицинской диагностике, в безопасности. 0:11:26.440,0:11:28.560 Машины перемалывают данные, 0:11:29.320,0:11:31.056 вычисляют вероятности, 0:11:31.080,0:11:34.736 доводят точность до 80%, до 90%, 0:11:34.760,0:11:39.136 упрощая данные для анализа 0:11:39.160,0:11:41.760 и процесса принятия решений человеком. 0:11:42.280,0:11:47.120 Только не думаю, что вы отправите детей 0:11:48.000,0:11:51.560 в школу на самоуправляемой машине[br]с 90-процентной точностью 0:11:52.600,0:11:54.200 или даже с точностью в 99%. 0:11:55.560,0:11:58.416 Поэтому нам необходим скачок, 0:11:58.440,0:12:04.600 который добавит эти жизненноважные[br]недостающие знаки после запятой. 0:12:07.160,0:12:11.200 Спустя 20 лет после[br]моего матча против Deep Blue, 0:12:12.200,0:12:13.816 моего второго матча, 0:12:13.840,0:12:20.136 тот сенсационный заголовок:[br]«Последний шанс разума» 0:12:20.160,0:12:21.736 стал избитой истиной 0:12:21.760,0:12:24.296 в отношении искусственного интеллекта, 0:12:24.320,0:12:25.520 надвигающегося 0:12:26.560,0:12:29.170 казалось бы, с каждым днём[br]всё глубже в каждый сектор. 0:12:30.160,0:12:33.256 Однако, вопреки прошлому, 0:12:33.280,0:12:34.920 когда машины заменяли 0:12:36.480,0:12:38.856 сельскохозяйственных животных,[br]ручной труд, 0:12:38.880,0:12:41.376 сейчас они угрожают людям с дипломами 0:12:41.400,0:12:42.680 и политическим влиянием. 0:12:44.120,0:12:46.216 И как тот, кто сражался[br]с машиной и проиграл, 0:12:46.240,0:12:49.260 я пришёл сказать вам, что это[br]замечательная, отличная новость. 0:12:51.000,0:12:53.216 В конце концов любой профессионал 0:12:53.240,0:12:55.336 испытает на себе это давление, 0:12:55.360,0:13:00.960 иначе человечество перестанет развиваться. 0:13:02.760,0:13:03.960 Не нам 0:13:05.440,0:13:07.160 выбирать, 0:13:08.480,0:13:11.200 где и когда остановить[br]технологический прогресс. 0:13:13.160,0:13:14.520 Мы не можем 0:13:15.960,0:13:17.456 замедлиться. 0:13:17.480,0:13:19.296 Говоря по правде, 0:13:19.320,0:13:21.490 нам впору ускоряться. 0:13:24.600,0:13:27.240 Технологии отлично[br]справляются с устранением 0:13:29.200,0:13:32.560 сложностей и неопределённостей[br]из нашей жизни, 0:13:35.000,0:13:37.816 так что мы должны искать 0:13:37.840,0:13:39.696 ещё более сложные, 0:13:39.720,0:13:43.800 ещё более неопределённые задачи. 0:13:48.200,0:13:49.400 Машины способны 0:13:51.880,0:13:53.696 на вычисления. 0:13:53.720,0:13:55.296 Мы способны на понимание. 0:13:55.320,0:13:57.360 У машин есть инструкции. 0:13:58.840,0:14:00.696 У нас есть цели. 0:14:00.720,0:14:03.000 Машинам присуща 0:14:05.080,0:14:06.296 объективность. 0:14:06.320,0:14:07.770 Нам присуща увлечённость. 0:14:08.600,0:14:14.576 Нам не следует беспокоиться о том,[br]на что машины способны сегодня. 0:14:14.600,0:14:19.176 Нам следует беспокоиться о том,[br]на что они пока ещё не способны, 0:14:19.200,0:14:24.696 потому что нам понадобится[br]помощь новых, умных машин, 0:14:24.720,0:14:28.800 чтобы воплотить наши[br]величайшие мечты в реальность. 0:14:30.000,0:14:31.320 И если нам не удастся, 0:14:32.240,0:14:36.896 если не удастся, то это не потому,[br]что машины окажутся слишком умны 0:14:36.920,0:14:38.320 или недостаточно умны. 0:14:39.200,0:14:42.280 Если нам не удастся, то это оттого,[br]что мы избаловались 0:14:43.680,0:14:45.490 и умалили собственные амбиции. 0:14:46.520,0:14:49.560 Наше человеческое начало[br]не определяется набором навыков, 0:14:51.280,0:14:53.960 вроде махания молотом[br]или даже игры в шахматы. 0:14:54.560,0:14:57.576 Единственная вещь,[br]на которую способны только люди, — 0:14:57.600,0:14:58.800 это мечтать. 0:15:00.120,0:15:02.656 Так давайте мечтать о большем. 0:15:02.680,0:15:03.896 Спасибо. 0:15:03.920,0:15:07.807 (Аплодисменты)