-
Итак, сначала мы изучим эти квантовые
машины опорных векторов,
-
и это не те
-
квантовые машины опорных векторов,
-
о которых идет речь в этой таблице.
-
Нужно учитывать, что квантовое машинное
обучение является
-
очень молодой областью,
-
которая разрабатывается максимум
в последние 3-4 года.
-
И некоторые понятия и термины
ещё не устоялись,
-
и существует несколько различных методов,
которые называются одинаково
-
или очень похоже.
-
Так что это не тот прием,
-
который используется для получения
экспоненциального ускорения,
-
это другой подход.
-
Это важно отметить.
-
Но идея заключается в том,
-
чтобы попытаться
-
продвинуть,
-
передать идею машин опорных
векторов, приема,
-
который используется в классическом
машинном обучении,
-
очень популярного приема в классическом
машинном обучении,
-
в сферу квантовых вычислений для
-
получения преимущества, для
-
усовершенствования этих методов.
-
Так что, если вы не знаете,
-
что такое машины опорных векторов,
-
это методы машинного обучения,
-
используемые для классификации данных.
Представьте, например, что у вас есть
-
какие-то данные определенного класса.
-
Мы пытаемся отличить
-
черные экземпляры от белых.
-
И думаю, можно попытаться разделить их
с помощью гиперплоскости.
-
В данном случае, так как мы в двухмерном
пространстве,
-
это просто линия.
-
И затем вычисляем
-
расстояние от нового экземпляра
до этой линии, чтобы понять,
-
в какой части плоскости он находится.
-
И затем вы относите его к классу
белых или черных.
-
На этой же идее основан и перцептрон,
-
классический алгоритм нейронной машины.
-
Но концепция машины опорных векторов
заключается в том, что
-
можно использовать несколько разных
гиперплоскостей,
-
чтобы разделить данные.
-
Например, Н1 не подойдет, потому что
она не отделяет
-
черное от белого, а вот Н2 и Н3
-
могут выполнить эту задачу, могут отделить
-
черные круги от белых.
-
Итак, какую мы должны выбрать?
-
Идея машин опорных векторов
в том, что вы должны
-
выбрать ту, у которой расстояние
от ближайших
-
экземпляров каждого класса
до гиперплоскости
-
самое большое.
-
Например, в данном случае
-
черные образцы находятся слишком близко
к гиперплоскости, белые экземпляры
-
слишком близко к гиперплоскости.
-
А если я использую вот эту гиперплоскость,
-
то расстояние здесь больше.
-
Так что, чтобы вычислить эту гиперплоскость,
-
вы можете
-
присвоить
-
значения «1» и «-1»,
-
например, черным и белым кругам.
-
А затем вычисляете
-
вот это произведение гиперплоскости,
параметров гиперплоскости,
-
которая используется для разделения,
и одного из экземпляров.
-
И оно получится либо положительным, либо
отрицательным.
-
Если оно положительное, вы относите
экземпляр к классу «+1».
-
Если оно отрицательное, вы относите
экземпляр к классу «-1».
-
Итак, вам нужно, чтобы
-
произведение фактического уровня экземпляра
и этого значения, которые вы вычислили
-
и используете для классификации экземпляра
как положительного или отрицательного,
-
их произведение должно быть
положительным.
-
Если оно отрицательное, то и класс
должен быть отрицательным.
-
Или, наверное, лучше сказать, что если
класс отрицательный,
-
то ваше предвычисление должно также
быть отрицательным,
-
а если класс положительный, реальный класс
положительный,
-
то и предвычисление должно быть
положительным.
-
Итак, вот нужное вам ограничение.
-
И при этом ограничении, для всех имеющихся
экземпляров учебных данных,
-
вот это значение, единица, деленная
на абсолютное значение нормы W,
-
коэффициенты гиперплоскости,
-
дает вам разделение.
-
Так что вам нужно сделать
-
это значение как можно большим, чтобы
разделение было как можно большим.
-
То есть вам нужно минимизировать обратную
величину вот этого значения.
-
Итак, вы можете использовать эту формулу
в классическом машинном обучении,
-
чтобы получить гиперплоскость,
-
разделяющую экземпляры с наибольшим
возможным полем.
-
В чем же проблема?
-
Проблема здесь в том, что вы применяете
это условие ко всем экземплярам.
-
В этом случае, где круги могут быть линейно
разделены, вы можете найти
-
эту гиперплоскость.
-
Но в общем случае
-
у вас могут быть выбросы здесь, некоторые
-
белые круги в этой части, некоторые черные
круги близко к белым,
-
и найти гиперплоскость, которая бы полность
отделила
-
черные экземпляры от белых, невозможно.
-
В этом случае мы используем формулу
модели машины опорных векторов,
-
которая называется мягкой маржой
(или мягким зазором),
-
в котором мы позволяем нарушать эти
условия в определенном диапазоне.
-
Но при этом мы хотим, чтобы такое нарушение
происходило не слишком часто.
-
Вот это условие штрафа, регулирующее
условие,
-
и если возникает много нарушений
этого условия,
-
то общая стоимость модели повышается,
и она не будет выбрана.
-
Так что прием добавления такого регулирующего
условия является достаточно распространенным
-
во многих методах машинного обучения,
-
давая модели больше гибкости, но не
-
позволяя полной свободы и бесконечного
нарушения многих условий.
-
Итак. Для решения такого рода задач,
или для моделей с такого рода
-
проблемой оптимизации (как обычно формулируют
это для машин с опорными векторами),
-
мы обычно рассматриваем так называемую
двойную формулу
-
машины с опорными векторами.
-
Вместо решения этого типа задач,
-
мы решаем
-
связанную с ними задачу, получаемую
-
с помощью множителей Лагранжа
и тому подобных вещей.
-
Она имеет точно такое же решение,
-
но формулируется в терминах
коэффициентов α «i»,
-
которые должны находиться между «0»
и этим регулирующим
-
условием, которое мы добавили
-
в случае мягкой маржи
-
в соответствии с этим ограничением,
-
и функцией, которую нам нужно максимизировать
-
(это важно отметить).
-
Она выражена вот этими произведениями,
вот этими внутренними произведениями,
-
экземпляров учебных данных, которыми
мы располагаем.
-
И можно доказать, что если
мы решим эту задачу,
-
её решение даст нам решение исходной
задачи, вот этой задачи оптимизации.
-
И мы сможем восстановить
-
значения W и В из коэффициентов α «i»,
которые мы получили при решении
-
задачи максимизации.
-
И на самом деле, можно использовать
α «i» непосредственно, чтобы
-
классифицировать новые экземпляры.
-
И, опять же, используя то, что учитывает
-
внутреннее произведение экземпляров
-
(экземпляров учебных данных)
-
и нового экземпляра, который нам нужно
классифицировать.
-
Мы можем это использовать для определения
-
общих характеристик модели
машины опорных векторов,
-
которая вместо гиперплоскости
или линейного разделения
-
использует более общие функции, или более
общие границы для разделения данных.
-
Может случиться, что у вас есть данные,
-
которые нужно классифицировать, и которые
не могут быть разделены линейно.
-
Как вот в этом случае. Но вы можете
-
определить другую функцию, другую границу,
которая отделит
-
в этом случае синие круги от от красных.
-
Иногда это разделение может быть выражено,
как линейное разделение,
-
но в более многомерном пространстве.
-
Мы можем встроить исходное пространство ввода
в так называемое пространство признаков,
-
и тогда данные, неразделимые в
пространстве ввода,
-
можно линейно разделить в пространстве
признаков.
-
Итак, мы обозначаем экземпляр xi
-
на векторах более многомерного
пространства,
-
используя
-
функцию, которая называется картой
характеристик,
-
эту φ, которая переводит пространство ввода
в более многомерное пространство,
-
и затем решаем
-
задачу машины опорных векторов
-
в этом более многомерном пространстве.
-
И можно увидеть, что это хорошо работает
-
для классических машин опорных векторов
во многих случаях.
-
И идея заключается в том, что мы можем
преобразовать задачу оптимизации,
-
рассматривая это более многомерное
пространство,
-
и из двойной формулы мы получаем
-
очень похожую задачу, но теперь вместо
-
вычисления внутреннего произведения
-
изначальных экземпляров в пространстве
ввода нам нужно вычислить
-
внутреннее произведение
-
трансформирующих векторов
в пространстве признаков.
-
А остальная часть формулы
точно такая же.
-
И затем, чтобы вычислить уровень
и классифицировать экземпляр,
-
нам не нужно
-
непосредственно вычислять
это преобразование.
-
Возможно, это преобразование дает
нам что-то очень многомерное,
-
или даже бесконечномерное,
что иногда случается.
-
Но до тех пор, пока мы можем вычислить
эти внутренние произведения
-
из выражений исходных точек,
-
мы можем решить задачу и классифицировать
новые экземпляры.
-
Функцию, которая вычисляет это внутреннее
произведение в пространстве признаков,
-
называют «ядром», и поэтому вот это
называют «ядерным трюком».
-
Эта теория полностью взята из классического
машинного обучения,
-
но дело в том, что мы можем исследовать
эту идею ядерного трюка для
-
использования карты характеристик, получаемую
из вариационной формы.
-
Почему это интересно, или как это может
помочь получить что-то
-
более эффективное, или дающее
лучшие результаты,
-
чем классическое машинное обучение, или
классические машины опорных векторов?
-
Помните, что
-
в гильбертовом пространстве, в котором у нас находятся
-
эти состояния кубитов,
-
размер растет по экспоненте
с ростом числа кубитов.
-
Так что идея,
-
предложенная, например, в 2019 г.,
-
в прошлом году исследователями из IBM,
-
заключается в том, чтобы встроить
-
наше пространство ввода в гильбертово
пространство
-
с помощью одной из этих вариационных схем,
-
то есть мы используем вводные данные
в качестве параметров
-
в вариационной форме, и затем
-
вычислять внутреннее произведение
с помощью квантового компьютера.
-
Для определенных карт характеристик,
-
для определенных вариационных форм
-
это невозможно сделать с помощью
классических вычислений,
-
поскольку вы работаете с этим
экспоненциальным
-
количеством параметров, ну или
предполагается,
-
что это невозможно сделать с помощью
классических вычислений.
-
Вы знаете, что у нас нет
-
математических доказательств такого
факта, но
-
все свидетельствует именно об этом.
-
В общем, может быть
-
полезно
-
изучить возможность встраивания
наших данных
-
в гильбертово пространство,
-
обработки этих данных с помощью квантового
компьютера, вычисления
-
этого внутреннего произведения и затем
-
решения соответствующей задачи
-
максимизации в двойной формуле
для машин опорных векторов,
-
чтобы получить
-
коэффициенты α «i».
-
А затем, когда нам снова понадобится
классифицировать новый экземпляр,
-
мы используем вот эту формулу
-
для получения уровня, и вот это вычисление
-
внутреннего произведения выполняется опять
с помощью квантового компьютера.
-
И мы уже знаем, как вычислять такое
внутреннее произведение.
-
Это точно такая же ситуация,
-
как и с моделью VQE, когда мы пытались
вычислить
-
внутреннее произведение основного состояния
на новые состояния, которые мы доказывали.
-
А в данном случае это даже проще,
потому что
-
у нас нет исходного состояния.
-
Исходное состояние всегда «0»,
и у нас есть эта
-
вариационная форма, которая преобразовывает
-
входные данные, первоначальные входные
данные,
-
представляя
-
их как состояния в гильбертовом
пространстве.
-
И для того, чтобы вычислить внутреннее
произведение (то, что нам нужно),
-
определить функцию ядра, такую,
как вот эта,
-
единственное, что нам нужно, это подобная
вот этой схема.
-
И повторюсь, мы запускаем схему,
-
объяснение
-
точно такое же, как и для VQE,
-
точно такой же трюк и мы использовали…
-
Итак, мы запускаем схему, чтобы оценить
частоту измерения «0»,
-
и это позволяет нам оценить
вот это значение.
-
А затем
-
мы решаем задачу с помощью классических
приемов, задачу
-
двойственной формулировки машины опорных
векторов, мы получаем α «i»,
-
и когда нам нужно классифицировать
новый экземпляр,
-
мы используем эту формулу,
-
а для вычисления ядра, для вычисления
внутреннего произведения
-
мы используем вот такую схему.
-
Итак, вот идея квантовых машин опорных
векторов в этой формуле, которую
-
в прошлом году предложили
исследователи из IBM.
-
И это уже используется в физике
высоких энергий.
-
Я взял этот слайд из презентации к семинару,
-
который проводил Сао Ланг Ву
-
чуть больше месяца назад. Я разместил
-
ссылку
-
на видеозапись этого семинара
-
на странице Indico, потому что считаю его
очень-очень интересным.
-
На нем рассказывается о различных
-
моделях квантового машинного обучения,
которое используется
-
для решения задач в физике высоких энергий.
-
И это имеет прямое отношение к нашей
сегодняшней теме.
-
Я хочу показать вам несколько примеров того,
-
как группа исследователей, возглавляемая
Сао Ланг Ву,
-
использует эти техники для решения задач
в физике высоких энергий.
-
Я хочу отметить, что среди исследователей,
участвующих
-
в этих экспериментах, есть два исследователя
-
из Открытой лаборатории ЦЕРНа, которая
сотрудничает с другими организациями
-
для получения таких интересных результатов.
-
Итак, повторюсь, идея в том, чтобы, как я
вам показывал и на прошлой неделе,
-
классифицировать
-
серию событий столкновения частиц,
-
чтобы увидеть, получился ли бозон Хиггса.
-
У нас есть сигнал,
-
набор событий и фон, и мы хотим
отделить сигнал от фона.
-
То есть это задача классификации, в которой
мы можем присвоить, например,
-
уровень «1» сигналу, уровень «-1»
-
фону, и мы можем использовать
конечно же,
-
приемы классического машинного обучения,
-
такие как машины опорных векторов.
-
А если можно использовать машины опорных
векторов,
-
то также можно использовать и квантовые
машины опорных векторов,
-
и именно это и сделали указанные
исследователи.
-
И сейчас я вам показываю часть результатов
-
семинара, а также
-
общедоступные слайды этого семинара.
-
Мне кажется, я не разместил ссылку,
но я это сделаю.
-
Результатов намного больше, но здесь
я вам показываю, что
-
эти результаты, запущенные
-
на эмуляторе Аmazon AWS,
-
были немного лучше в плане
-
способности классификации, чем,
например, у дерева бинарных…
-
нет, думаю, это усиленное дерево
решений (boosted decision tree),
-
метода классического машинного обучения
-
или машин опорных векторов.
Разница небольшая,
-
но она показывает, что с помощью...
-
Они пробовали как с помощью Эмулятора IBM,
так и с помощью эмулятора Amazon,
-
получить преимущество или большую
-
дискриминационную способность с помощью
таких методов.
-
Конечно, эксперименты, которые мы
можем проводить
-
на данный момент, очень ограничены,
потому что у наших компьютеров
-
есть большое ограничение по кубитам,
-
и наши возможности моделирования также
очень ограничены, мы не можем
-
продвинуться дальше, боюсь соврать,
-
10 кубитов, как здесь, или дальше
20 кубитов, что-то около того.
-
Так что мы ожидаем, что когда у нас будут
квантовые компьютеры
-
больших размеров, которые мы
сможем использовать
-
для такого рода экспериментов,
-
мы сможем получить еще большую
производительность.
-
Я также хочу заметить, что
-
Amazon недавно запустил программу
-
на платформе AWS,
-
в которой можно использовать несколько
различных
-
не только эмуляторов, но также и несколько
различных
-
реальных квантовых устройств.
-
Они сотрудничают,
-
мне кажется, с IonQ, Rigetti и D-Wave.
-
И насколько я знаю, использование
этой программы не бесплатно,
-
как IBM Quantum Experience,
-
Но если вы ищете
-
альтернативные возможности или
-
платформы для проведения своих
экспериментов,
-
то ее также можно рассмотреть.
-
Итак, это один из результатов.
-
Ещё один результат такого метода
квантовых машин опорных
-
векторов для классификации этих событий
показан на этом слайде,
-
на этом графике.
-
Обратите внимание, что здесь в учебных
целях было использовано 3 200 событий,
-
это немного,
-
но здесь показано, что даже с меньшим
количеством событий
-
квантовые методы, квантовые машины
опорных векторов
-
могут дать значения…
-
Ну, неточность здесь достаточно большая,
-
трудно сказать, что здесь есть реальное
преимущество, но это
-
также согласуется с типом экспериментов…
-
С типом экспериментов, которые я вам
показывал на прошлой неделе,
-
с использованием метода квантового
отжига, также для классификации.
-
Итак, это распространенная
-
тема в этих последних экспериментах.
-
Представляется, что
-
квантовые версии этих классических методов:
в случае квантового отжига
-
можно говорить о
-
сравнении с этими нейронными
сетями и некоторыми
-
деревьями решений, в случае
-
с квантовыми машинами опорных векторов
можно провести сравнение
-
с классическими машинами опорных
векторов и другими
-
классическими методами, но, похоже,
-
квантовые методы могут обучаться быстрее
с меньшим количеством экземпляров.
-
Это всего лишь гипотеза, она не доказана,
-
чтобы делать выводы, нужно еще много
экспериментов,
-
но эта тема распространена,
-
не только в этих двух работах, но и в других
недавно опубликованных.
-
Также верно, что эти модели, похоже,
быстрее выравниваются,
-
они не намного выигрывают
от новых экземпляров.
-
Но мне кажется, здесь есть кое-что
интересное для исследований.
-
И я уверен, что в ближайшем будущем это
будет исследовано более подробно.
-
Итак, перед тем, как перейти к следующей
модели квантового
-
машинного обучения… Есть ли у вас какие-то
-
вопросы на данном этапе? Нет?
-
Тогда я
-
покажу,
-
как запускать такие
-
машины опорных векторов, квантовые машины
опорных векторов,
-
в IBM Quantum Experience.
-
Конечно, эти квантовые машины
опорных векторов
-
реализованы в Qiskit, в Aqua,
-
потому что фактически они были предложены
исследователями из IBM.
-
Повторюсь, я запустил этот эксперимент
-
заранее, чтобы показать вам результаты
и не ждать здесь 10 минут,
-
пока программа закончит работу.
-
И также я хотел бы заметить,
-
что некоторые из вас пытались запустить
-
этот блокнот
-
перед лекцией.
-
Я опубликовал его вчера, и некоторые
люди уже
-
попытались его запустить.
-
Но в некоторых инсталляциях
с ним могут быть проблемы.
-
У меня в локальной инсталляции
они иногда возникали.
-
Это происходит из-за
-
несовместимости между библиотекой
matplotlib
-
и какой-то версией параллельного исполнения,
используемой в Qiskit.
-
Это происходит не всегда, не во всех
установках, например, здесь, в
-
IBM Quantum Experience, все прекрасно
работает.
-
У меня здесь блокнот с результатами, но вы
можете его запустить «с нуля»,
-
с самого начала, и он будет работать.
-
Но если вы столкнетесь с такой проблемой,
-
то она скорее всего связана
с использованием
-
библиотеки matplotlib.
-
Я забыл об этой проблеме, спасибо
-
Богдану Пульвеску,
-
за то, что сообщил мне об этой проблеме.
-
И я знаю, с чем она связана, и в IBM знают,
но, думаю, не могут её решить,
-
потому что она не связана непосредственно
с Qiskit.
-
Но я попробую создать
-
новую версию
-
блокнота без графиков,
-
чтобы вы тоже могли запустить её на своём
компьютере и локальной инсталляции.
-
Но если вы не можете этого сделать или
-
если хотите увидеть результаты сейчас,
-
вы можете открыть его в IBM
Quantum Experience,
-
и там он будет работать.
-
Итак,
-
сейчас я…
-
Вот поэтому я и хотел иметь здесь
эти графики, потому что
-
с ними проще понять, что я делаю…
-
Итак, сначала я генерирую
-
условный набор экземпляров для обучения
классификатора.
-
Я хочу отделить красные круги
от синих кругов.
-
Я просто построил кривую нормального
распределения
-
для красных кругов, и другую кривую
нормального распределения с другим
-
средним значением для синих кругов.
-
И затем я
-
определяю эту
-
карту характеристик, которую собираюсь
использовать,
-
эту вариационную форму, которую
собираюсь использовать, чтобы
-
перевести, или преобразовать, или встроить
-
входные данные в гильбертово пространство.
-
И есть много способов сделать это.
Это еще одна
-
область для исследований, которую я нахожу
-
очень интересной, и в ней сейчас идет
очень активная работа,
-
потому что все эти модели совсем недавние,
и здесь…
-
Вопрос в том, какой способ встраивания
данных самый лучший.
-
Я покажу вам в следующей модели,
в квантовых нейронных сетях,
-
или в квантовых вариационных
классификаторах,
-
некоторые результаты, теоретические
результаты,
-
над которыми работают некоторые
исследователи,
-
чтобы изучить
-
эти карты характеристик и понять,
какая из них лучше.
-
Но идея заключается в том, что для исследования
-
или использования возможностей
квантовых вычислений,
-
нужно, чтобы было запутывание.
-
Потому что если запутывания нет, то
-
это можно легко смоделировать и с помощью
классического компьютера.
-
Вот поэтому
-
практически все эти карты характеристик
содержат запутывание.
-
Здесь есть несколько подходов,
вращение фаз
-
и различные вентили.
-
И до этого момента это практически
искусство.
-
Вам нужно
-
определить карту характеристик, пытаясь
-
использовать некоторые из этих возможностей,
и загрузить наилучшую
-
карту характеристик в ваши данные.
-
Но, например, в этом случае
-
я использую вот эту карту, предоставленную
в Qiskit, Aqua,
-
и готовую к использованию.
-
И затем я просто должен
-
запросить выполнение
-
квантовой машины опорных векторов (QSVM),
указав, какую
-
карту характеристик хочу использовать и,
конечно, передать квантовую программу,
-
в данном случае это эмулятор
вектора состояния,
-
чтобы выполнить это вычисление быстрее.
-
А затем я обучаю QSVM
-
с помощью учебного ввода и учебных уровней.
-
В этой части
-
ввод встроен в
-
гильбертово пространство, внутренние
произведения
-
вычисляются с помощью квантовых схем,
а затем эти значения
-
используются для максимизации
двойной формулы QSVM,
-
чтобы получить коэффициенты.
-
И после этого
-
я получил несколько значений, несколько
дополнительных значений из тех же
-
кривых нормального распределения,
чтобы протестировать
-
и затем использовать QSVM, которую я
уже научил классифицировать.
-
Точность получилась не большая,
но и не плохая.
-
Я имею в виду, эта задача очень простая,
она не очень сложная, но
-
я не оптимизировал эту вариационную
форму, просто взял готовую,
-
и получил точность 80%.
-
Я могу это использовать также
в реальных ситуациях.
-
Например, в Aqua
-
есть возможность доступа
-
к некоторым предопределенным
наборам данных,
-
широко используемых в условиях
машинного обучения.
-
Например, здесь вы видите набор данных
о раке груди.
-
Оранжевые круги и синие круги.
-
И я опять использовал карту характеристик.
-
В данном случае карта, которую
я использовал, даже проще,
-
чем вот эта.
-
И я запустил задачу классификации
и получил 0.8.
-
А теперь
-
об эксперименте, о котором я вам говорил как
-
об очень интересном.
-
Я попробую его провести с другой картой.
-
Я увеличил количество повторений
-
этого блока.
-
В картах характеристик очень полезно
-
иметь простой блок,
-
повторяющийся несколько раз.
-
И с помощью этого я получаю
-
чуть большую точность классификации.
-
И так вы можете играть с различными картами
характеристик, различными
-
настройками, количеством экземпляров и т.д.
И смотреть, что получится.
-
Вернёмся теперь
-
к последней на сегодня модели, которую
я вам хотел показать.
-
Так,
-
в чате есть вопросы. Богдан Пульвеску
пишет, что
-
в новой версии Qiskit, версии 0.23.1,
проблема решена.
-
То есть если вы установите обновление
с новой версией, то проблем не будет.
-
А Ричард Политка (надеюсь, я произношу
имя правильно)
-
спрашивает:
-
«Если я правильно понял пример с ТТН,
то каждая характеристика
-
равна одному кубиту?»
-
Да, думаю, да.
-
Он имеет в виду, или она имеет в виду
вот этот пример.
-
Не думаю, что
-
они раскрывают
-
реальные карты, которыми пользуются,
-
потому что они всё ещё изучаются.
-
Но, думаю, в данном случае
они используют…
-
Они сокращают характеристику, которую
используют для классификации,
-
и затем используют один кубит
для каждой характеристики.
-
Я не до конца уверен, но думаю, что это так.
-
Есть и другие способы встраивания
-
данных, которые могут использовать кубиты
более
-
экономично.
-
Вы можете встроить больше информации
с тем же количеством кубитов,
-
и это было бы интересно изучить.
-
Но, думаю, здесь именно такой случай.
Итак, вопрос.
-
«Можем ли мы взять лучший квантовый
эмулятор на уровне
-
50 кубитов и сравнить его с усиленным
-
деревом решений машины опорных векторов
с 50 характеристиками?
-
Возможности классификации заключаются
не только в количестве данных,
-
но и в количестве характеристик»,
-
Вы абсолютно правы! Я имею в виду, что это
-
всего лишь предварительный эксперимент.
-
А скорее, все эксперименты в этом
направлении, о которых я знаю,
-
очень черновые.
-
Но здесь есть одно ограничение, конечно,
-
даже в очень мощном классическом симуляторе
квантового устройства,
-
скажем, не думаю, что даже сможем получить
50 кубитов, скажем, 40 кубитов.
-
И даже в этом случае время обучения
достаточно большое.
-
Так что я не думаю, что кто-то
это уже сделал,
-
но это очень важно.
-
Я имею в виду, то, что написал Ричард.
-
Сравнение количества характеристик,
которые вам нужны.
-
И в этом направлении ещё предстоит
много работы.
-
Qmware.com может быть полезным.
Я не знаком с этим, видимо,
-
эмулятором, о котором пишет Маркус Флитц,
-
но я попробую, попробую.
-
Да, существует очень много разных
эмуляторов, и ведётся
-
много работы в этом направлении, и все эти
ресурсы представляют большой интерес.
-
Я расскажу немного о квантовых эмуляторах
на следующей неделе.
-
Но почти каждую неделю появляется
что-то новое.
-
Есть ли ещё вопросы по этой теме?
-
Спасибо за вопросы, за обратную связь,
она тоже очень интересна.
-
И в этом и суть сессии в Зуме, чтобы можно
было взаимодействовать,
-
и, конечно, для тех, кто смотрит
-
веб-трансляцию или запись, помните,
что можете мне написать
-
по электронной почте, и я постараюсь
по возможности ответить
-
на все вопросы.