Физики обобщили концепцию искусственного перцептрона до квантовых систем и разработали квантовую нейросеть, способную производить произвольные вычисления. Нейросеть показала хорошую предсказательную способность в задаче определения случайного многокубитного преобразования даже на шумной выборке, а метод обучения, представленный учеными, потенциально дает экспоненциальное ускорение в обучении глубоких нейросетей. Работа опубликована в Nature Communications.
Алгоритмы машинного обучения обладают высокой вычислительной сложностью. Сейчас, когда мощность классических компьютеров перестает расти (начинает нарушаться закон Мура), необходим новый подход к обучению, что влечет за собой фундаментально другую реализацию нейросети. В то же время квантовые устройства, способные превзойти классические компьютеры в определенных задачах, позволяют реализовать квантовое машинное обучение.
Ученые уже давно используют симбиоз предсказательных алгоритмов и квантовых вычислений. Например, физики используют машинное обучение для предсказания динамики многочастичных систем, на которых строятся кубиты, а квантовые вычисления, в свою очередь, могут помочь ускорить классические алгоритмы обучения. Одна из областей такого машинного обучения включает в себя созданиеквантовой нейросети, способной обучаться на квантовых данных. Для создания такой сети ученым необходимо реализовать искусственный нейрон в квантовых системах, разработать архитектуру сети и модель обучения.
Физики из Ганноверского университета имени Лейбница под руководством профессора Рамоны Вульф (Ramona Wolf) представили квантовый аналог классической модели нейронов, которые формируют нейросети с прямой связью. Такие сети, например, могут производить универсальные квантовые вычисления.
Элементарный блок такой нейросети — это квантовый перцептрон, аналог перцептронов, используемых в классическом машинном обучении. Для реализации перцептрона физики использовали локальную унитарную операцию, которая преобразовала состояние m кубитов в состояние n кубитов — такая операция имеет 22(m+n)-1 параметров. В качестве входных данных использовалось квантовое состояние входного слоя кубитов, а в качестве предсказания ученые получали состояние выходного слоя кубитов.
Интересная особенность представленного метода обучения заключается в том, что параметры локальных преобразований могут быть вычислены послойно, то есть без необходимости применения преобразования ко всем кубитам — в результате количество изменяемых параметров масштабируется лишь с шириной сети (числами m и n), что позволяет обучать очень глубокие нейросети.
В качестве примера работы сети ученые рассматривали задачу получения случайной матрицы из ограниченного набора случайных входных и выходных векторов квантовых состояний, чья размерность меньше ширины сети. Нейросеть показала хорошую динамику обучения и, более того, устойчивость к шумным данным.
Ранее компания Google использовала вариационные квантовые алгоритмы, которые тоже можно рассматривать как нейросети, для моделирования молекул, а ученые из США в 2017 году предложилииспользовать квантовые точки на основе цинка для создания масштабных нейросетей.
Михаил Перельштейн