< Return to Video

6.3. Вариативные алгоритмы и машинное обучение: загрузка данных, "шумные" процессоры и др.

  • 0:01 - 0:04
    Итак, давайте вернёмся к части о квантовом
    машинном обучении,
  • 0:05 - 0:12
    которое, как вы увидите, также использует
    эту идею вариационных форм
  • 0:15 - 0:19
    и вычисления скалярных произведений.
    Поэтому эти идеи, которые мы прошли
  • 0:19 - 0:22
    в первой части лекции, будут полезны
    также для
  • 0:23 - 0:29
    примеров с квантовым машинным обучением,
    рассматриваемом в этой части.
  • 0:29 - 0:31
    Конечно, квантовое машинное обучение
  • 0:32 - 0:35
    это комбинация квантового вычисления
    и машинного обучения,
  • 0:36 - 0:41
    но в зависимости от того, у кого вы спросите,
    это может обозначать разные понятия.
  • 0:41 - 0:42
    Итак,
  • 0:43 - 0:44
    чтобы объяснить тип
  • 0:44 - 0:49
    примеров, взятых из квантового машинного
    обучения, на котором я
  • 0:51 - 0:52
    сфокусируюсь,
  • 0:52 - 0:55
    я взял это изображение
  • 0:55 - 0:58
    из книги, очень интересной книги,
  • 0:58 - 1:01
    которая находится в списке рекомендуемых
    источников
  • 1:01 - 1:03
    от Шульд и Петруччоне
    (Shuld и Petruccione),
  • 1:03 - 1:08
    в которой определяются комбинации
    классического
  • 1:11 - 1:14
    машинного обучения и квантового
    вычисления, исходя из
  • 1:14 - 1:18
    использования классической или квантовой
    информации.
  • 1:18 - 1:19
    Или если
  • 1:22 - 1:25
    вычисление производится на квантовых
    компьютерах
  • 1:25 - 1:27
    или на классических компьютерах.
  • 1:28 - 1:31
    Итак, у нас здесь две оси, зависящие
  • 1:31 - 1:34
    от используемого обрабатывающего устройства,
    классического или квантового,
  • 1:34 - 1:38
    или зависящие от системы генерации
    данных, входных данных,
  • 1:38 - 1:40
    классической или квантовой.
  • 1:40 - 1:42
    И у нас есть несколько различных комбинаций.
  • 1:42 - 1:47
    Наиболее интересна для нас та, на которой
    с собираюсь сосредоточиться,
  • 1:47 - 1:49
    по причине, которую объясню позже,
  • 1:49 - 1:54
    это комбинация классических данных
    с квантовыми компьютерами.
  • 1:54 - 1:55
    Конечно, сейчас
  • 1:57 - 2:01
    этот тип комбинации машинного обучения
    и квантовых вычислений
  • 2:02 - 2:08
    можно намного легче реализовать с тем типом
    компьютеров, которые мы имеем.
  • 2:08 - 2:11
    Потому что, конечно же, мы могли бы
    также использовать
  • 2:11 - 2:16
    квантовые данные и, например, QTI,
    здесь в ЦЕРНе,
  • 2:16 - 2:21
    которая исследует возможность квантового
    восприятия, например, для
  • 2:22 - 2:25
    использования квантовых данных или
  • 2:25 - 2:29
    получения квантовых данных в квантовых
    состояниях из экспериментов.
  • 2:29 - 2:33
    Но сегодня это трудновыполнимо, конечно же.
  • 2:33 - 2:38
    И мы могли бы использовать квантовые
    данные и проанализировать их
  • 2:38 - 2:42
    с помощью классического машинного обучения,
    но тогда
  • 2:42 - 2:44
    это не так интересно,
  • 2:44 - 2:48
    потому что мы заинтересованы в использовании
    квантовых компьютеров.
  • 2:48 - 2:50
    В итоге мы будем фокусироваться на
  • 2:51 - 2:54
    применении квантовых вычислений
  • 2:54 - 2:58
    к классическим данным, вдохновляясь
  • 2:59 - 3:02
    развитием классического машинного обучения.
  • 3:03 - 3:08
    Итак. Также существуют два
    подхода к объединению
  • 3:08 - 3:09
    обработки классических данных
  • 3:11 - 3:13
    с квантовыми алгоритмами.
  • 3:13 - 3:16
    Первый — это попытка взять
  • 3:17 - 3:22
    части алгоритмов, которые мы используем
    в классическом машинном обучении,
  • 3:22 - 3:25
    и ускорить их с помощью квантовых
    компьютеров.
  • 3:25 - 3:30
    Это напоминает алгоритм, который мы изучали
    в первой части этой лекции,
  • 3:30 - 3:36
    в котором мы используем квантовый компьютер
    как ускоритель для определенных частей
  • 3:36 - 3:40
    вычисления, не для всех частей,
    а только для некоторых.
  • 3:40 - 3:42
    И мы можем это сделать,
  • 3:44 - 3:49
    потому что во многих классических алгоритмах
    машинного обучения нам нужно использовать,
  • 3:50 - 3:52
    например, методы
  • 3:53 - 3:54
    решения
  • 3:57 - 3:58
    линейных систем уравнений,
  • 3:59 - 4:03
    и мы уже говорили об этом.
  • 4:03 - 4:08
    Мы не изучали это подробно, но ранее
    упоминали алгоритм,
  • 4:08 - 4:10
    который называется HHL.
  • 4:10 - 4:13
    Он основан на квантовом преобразовании
    Фурье
  • 4:13 - 4:15
    и методе квантовой фазовой оценки.
  • 4:15 - 4:18
    Итак, с помощью таких приемов можно
  • 4:19 - 4:22
    определить то, что иногда называют
  • 4:22 - 4:25
    квантовыми базисными подпрограммами
    линейной алгебры, или QBLAS,
  • 4:26 - 4:31
    которые при определенных условиях
    могут ускорить
  • 4:34 - 4:36
    работу классического машинного обучения.
  • 4:37 - 4:40
    Однако здесь есть некоторые проблемы.
  • 4:43 - 4:47
    В использовании этого подхода есть
    некоторые ограничения,
  • 4:47 - 4:53
    например, не очень ясно, как загружать
    в алгоритм входные данные.
  • 4:54 - 4:57
    Есть также проблема считывания
    выходных данных.
  • 4:57 - 4:58
    А также проблема, которая
  • 4:59 - 5:00
    привычна,
  • 5:00 - 5:07
    хотя для этих алгоритмов необходимо
    полиномиальное число вентилей,
  • 5:07 - 5:13
    что всё ещё недоступно для квантовых
    компьютеров,
  • 5:13 - 5:14
    которыми мы располагаем сегодня.
  • 5:14 - 5:18
    И также существует проблема помех,
    и однозначности, и тому подобного.
  • 5:19 - 5:24
    Для решения некоторых из этих проблем,
    например, проблемы загрузки данных
  • 5:24 - 5:28
    на компьютер, некоторые авторы
    изучили и предложили
  • 5:28 - 5:31
    идею квантового ОЗУ,
  • 5:31 - 5:37
    которое позволило бы запрашивать информацию
    и загружать информацию, и
  • 5:38 - 5:40
    получать информацию
  • 5:40 - 5:43
    (классическую информацию, которую мы
    собираемся использовать)
  • 5:43 - 5:44
    в суперпозиции.
  • 5:44 - 5:50
    И это то, что может помочь уменьшить
    упомянутые проблемы.
  • 5:51 - 5:51
    Но это
  • 5:52 - 5:54
    всё ещё находится в процессе разработки
  • 5:56 - 5:57
    в различных
  • 5:59 - 6:03
    теоретических исследованиях, и мы не можем
    это использовать прямо сейчас.
  • 6:04 - 6:12
    И вы можете изучить много подобных
    приемов ускорения
  • 6:12 - 6:17
    классических методов машинного обучения.
    Например, ну не знаю,
  • 6:19 - 6:24
    машины Больцмана, машины опорных векторов,
    стимулированное обучение,
  • 6:24 - 6:27
    перцептрон, РСА…
  • 6:27 - 6:29
    Много что можно сделать,
  • 6:30 - 6:34
    взяв части этих алгоритмов и ускорив их
    квантовыми методами.
  • 6:34 - 6:39
    И при определенных условиях вполне можно
    получить увеличение скорости,
  • 6:39 - 6:40
    но вот посмотрите на эту
  • 6:41 - 6:43
    отметку здесь,
  • 6:43 - 6:45
    которая показывает,
  • 6:45 - 6:51
    что для этих приемов существуют
    некоторые ограничения.
  • 6:53 - 6:57
    Очень интересная статья, которая
    рассказывает об этом
  • 6:57 - 7:00
    подходе подробнее, также опубликована
    в Nature,
  • 7:01 - 7:04
    из неё я и взял эту таблицу. И если вы
    хотите исследовать этот вопрос,
  • 7:04 - 7:08
    я рекомендую прочитать эту статью,
    она достаточно легко читается.
  • 7:08 - 7:12
    Но я не собираюсь фокусироваться
    на этом подходе,
  • 7:12 - 7:18
    потому что в ближайшее время мы не сможем
    им воспользоваться,
  • 7:18 - 7:20
    при этом есть и другие интересные
  • 7:21 - 7:25
    предложения в области квантового
    машинного обучения,
  • 7:25 - 7:28
    которые мы можем изучать сейчас и которые
    мы можем сейчас использовать,
  • 7:28 - 7:30
    с теми компьютерами, которые у нас есть.
    И фактически,
  • 7:30 - 7:36
    как я вам сейчас покажу, уже исследуются
    в области физики высоких энергий.
  • 7:36 - 7:41
    В общем, я думаю, это более интереснее,
    хоть и другая часть тоже
  • 7:41 - 7:45
    захватывающая, очень глубокая
    и содержательная,
  • 7:45 - 7:52
    но в краткосрочной перспективе не слишком
    практична. Итак, что мы можем сделать
  • 7:54 - 7:58
    и почему это зависит от типа квантовых
    компьютеров в нашем распоряжении?
  • 8:02 - 8:07
    Этап квантовых вычислений, на котором
    мы сейчас находимся,
  • 8:08 - 8:09
    иногда называют
  • 8:09 - 8:12
    эрой или веком NISQ,
  • 8:13 - 8:19
    что означает шумные среднемасштабные
    квантовые компьютеры.
  • 8:19 - 8:22
    Так как устройства, которыми мы располагаем
    сейчас, шумные,
  • 8:23 - 8:27
    они подвержены ошибкам, они допускают
    когерентность,
  • 8:27 - 8:29
    они не отказоустойчивые.
  • 8:29 - 8:32
    Они также не очень велики, у нас есть
  • 8:33 - 8:38
    компьютеры до 50 или, возможно, 70 кубитов,
  • 8:40 - 8:43
    и возможно, в следующем году мы сможем
    достичь где-то 100 кубитов.
  • 8:44 - 8:45
    Но это не очень много.
  • 8:45 - 8:48
    А еще они неполносвязные.
  • 8:48 - 8:50
    Мы уже говорили об этом
    несколько раз раньше.
  • 8:51 - 8:54
    Чтобы запутать все кубиты,
    мы можем использовать,
  • 8:54 - 8:56
    например, вентили CNOT,
  • 8:56 - 8:59
    но нельзя применить вентиль CNOT
    к абсолютно любому
  • 9:00 - 9:05
    кубиту, по крайней мере, с теми технологиями,
    которые сегодня наиболее популярны.
  • 9:05 - 9:07
    Так что у нас есть кое-какие ограничения.
    Нельзя
  • 9:07 - 9:11
    просто применить эти решения
    с алгоритмом HHL,
  • 9:12 - 9:15
    или с квантовой фазовой оценкой,
    или с другими приемами.
  • 9:15 - 9:17
    Но у нас есть
  • 9:18 - 9:19
    некоторые компьютеры,
  • 9:20 - 9:25
    для которых эти основанные на вариационных
    формах алгоритмы подойдут.
  • 9:25 - 9:30
    Потому что в вариационных формах,
    вы видели, например, в QAOA,
  • 9:30 - 9:36
    при наличии помех нельзя получить решение
    того же качества, но можно получить
  • 9:36 - 9:42
    приблизительно равное которое может
    подойти для некоторых задач.
  • 9:42 - 9:50
    И шум, и ограничения компьютеров в такого
    рода задачах не так сильны, как,
  • 9:50 - 9:55
    например, в HHL, в котором при получении
    чего-то, не являющегося решением
  • 9:56 - 10:01
    линейной системы уравнений, можно получить
    что-то бесполезное, например.
  • 10:02 - 10:07
    Итак, мы сосредоточимся на использовании
    квантового машинного обучения
  • 10:07 - 10:12
    на таких NISQ устройствах, на компьютерах,
    которые можно использовать сегодня.
  • 10:12 - 10:14
    Как я уже говорил,
  • 10:14 - 10:20
    в последние несколько лет проводятся
    очень интересные эксперименты,
  • 10:20 - 10:23
    например, в области физики
    высоких энергий.
  • 10:24 - 10:28
    Мы также работаем над этим здесь,
    в Открытой лаборатории ЦЕРНа,
  • 10:28 - 10:30
    для решения различных задач.
  • 10:31 - 10:33
    Я покажу вам некоторые
  • 10:35 - 10:36
    примеры
  • 10:37 - 10:40
    нашей работы, которую мы проводим с этими
    исследователями здесь в ЦЕРНе,
  • 10:40 - 10:44
    и я думаю, что это очень интересная тема.
Title:
6.3. Вариативные алгоритмы и машинное обучение: загрузка данных, "шумные" процессоры и др.
Description:

more » « less
Video Language:
English
Duration:
10:44

Russian subtitles

Incomplete

Revisions