Квантовые вычислительные машины
О наступлении новой информационной эры слышали,
пожалуй, все. Но вместе с тем распространено достаточно некорректное
"попсовое" восприятие явления: как этакой IT-утопии, где работают
роботы, а люди или пишут к ним программки, или "генерят контент",
удаленно подключив свой гаджет к рабочему серверу с какого-нибудь
тропического курорта.
Здравствуйте, уважаемые читатели!
В
сегодняшней статье мы не станем рассматривать ни хитросплетений событий
прошлого, ни паранаучных извращений настоящего. Сегодня мы с вами
попробуем заглянуть в будущее.
Флагманской темой разговоров о
будущем нередко становится вопрос технологий - и, надо отметить,
абсолютно заслужено. Из всех факторов, оказывающих влияние на движение
шестеренок исторического процесса, наиболее сильным можно назвать именно
динамику изменения технологического уклада. Жертвами постепенного
внедрения новых технологий и внезапной утраты смысла в старых на
протяжении истории становились как социальные институты, так и целые
империи, а в ряде случаев - и вовсе цивилизации. В силу этого желание
встретить новую порцию изменений подготовленными выглядит более чем
закономерным.
Но при этом нельзя не отметить, что современная
технологическая футурология в значительной мере поражена эмоционально
обусловленным визионерством достаточно дурного пошиба. Такого, где
качество прогнозирования оказывается менее приоритетным, чем желание
ошеломить и восхитить аудиторию стильным образом
демонстративно-высокотехнологичного будущего. Дело, наверное, в том, что
подобного рода футурология носит не столько фундаментальный, сколько
прикладной характер, обслуживая скорее задачи маркетинга здесь и сейчас,
нежели потребность в понимании образа будущего когда-нибудь потом.
Из-за этого бытуют изрядно примитивизированные представления, что
будущее - это когда:
1. всё стильное, округлое и преимущественно белого цвета (покойный Стив Джобс и Apple);
2. всё электрическое, повторно используемое и экологичное (Илон Маск и его империя из SpaceX, Tesla и SolarCity);
3.
всё кибернетизированное, искусственно-интеллектовое и с заявками на
модификацию человеческой природы (Рэй Курцвейл и Google, редкий случай,
когда лицо образа будущего не является первым лицом в компании);
4.
произвольная комбинация из вышеперечисленных пунктов
(среднестатистический подписчик любого паблика на научно-технические
темы).
В чем проблема перечисленных вариантов будущего, каким мы
его видим из сегодняшнего дня? В том, что собственно вариантов будущего
они толком и не содержат. Все перечисленное в лучшем случае пригодно на
правах описания эстетики какой-нибудь научно-фантастической франшизы,
кусочек которой аудитории и предлагается купить в виде продукции
соответствующей компании. Перечисленные варианты достаточно бедны в
части описания реальных проблем и решений, а те, что всё-же присутствуют
- обтекаемы и, мягко выражаясь, небесспорны.
Здесь, казалось бы,
напрашивается фраза "а сейчас я покажу вам настоящую качественную
футурологию". Её, однако, не будет. Подобное утверждение было бы слишком
смелым и самонадеянным. Вместо этого давайте просто рассмотрим один
отдельно взятый технологический вопрос, который будет касаться
перспектив развития компьютерной элементной базы. А насколько
качественно получится - судить, уважаемые читатели, в первую очередь
именно вам.
Относительно недавно главой
государства был предложен курс на выстраивание цифровой экономики.
Многими это было воспринято, как предложение сделать IT-сектор
локомотивом российской экономики, выражаясь образно, "новой нефтью". Что
не совсем корректно и, откровенно говоря, сводит предлагаемую концепцию
к банальному популизму. Сами по себе информационные технологии никаким
локомотивом быть не способны, поскольку не создают ничего материального,
а только помогают это материальное обслуживать и эксплуатировать.
IT-сектор попросту не может существовать без развития автоматизируемых
им иных отраслей. Кое-кто даже покритиковал данную инициативу с этих
позиций. Но справедливо ли?
Чтобы не оперировать упрощенными
моделями, домыслами и сферическими конями в вакууме, обратимся к
первоисточнику. То есть, непосредственно к тексту программы "Цифровая
экономика Российской Федерации", утвержденной распоряжением
Правительства № 1632-р от 28 июля 2017 г.
"Основными сквозными цифровыми технологиями, которые входят в рамки настоящей Программы, являются:
- большие данные;
- нейротехнологии и искусственный интеллект;
- системы распределенного реестра;
- квантовые технологии;
- новые производственные технологии;
- промышленный интернет;
- компоненты робототехники и сенсорика;
- технологии беспроводной связи;
- технологии виртуальной и дополненной реальностей."
Как
видим, речь не только и не столько об IT-секторе. Особенного же
внимания в контексте нашего разговора об образе будущего заслуживает
такой пункт данного перечня, как "квантовые технологии". Из всех
перечисленных, пожалуй, именно он мог бы оказать максимальное влияние на
формирование следующего технологического уклада. Но для того, чтобы
понять, почему именно, разговор придётся начать издалека.
Есть
такая величина - двадцать нанометров. Это ноль целых и двадцать пять
статысячных от толщины человеческого волоса и, округленно, ноль целых и
три тысячных от диаметра красной кровяной клетки. А еще это -
минимальный размер затвора транзистора, используемого в современных
серийно производимых процессорах.
За ничтожных несколько
десятилетий миниатюризация электроники достигла поистине выдающихся
успехов, сделав возможным создание помещающихся в кармане устройств, чья
вычислительная мощность с колоссальным запасом превышает суммарные
мощности, потребовавшиеся на всю советскую космическую программу. И
подобные устройства - не уникальные диковинки, существующие в
единственном экземпляре в каких-нибудь сверхсекретных лабораториях, а
неотъемлемая часть нашей жизни. С экрана одного из таких устройств вы,
вполне возможно, и читатете эту статью.
Удивительно, не правда
ли? Но об этом редко кто задумывается, и отнюдь не от отсутствия
любознательности. Бурное развитие вычислительной техники уже стало
чем-то привычным, пожалуй, даже обыденным. Когда число транзисторов,
которые производителям удалось поместить на стандартном кристале
процессора, удваивается в среднем каждые два года, сложно ожидать ярко
выраженных восторгов на каждой итерации этого действа. Напротив, это
начинает казаться нормой. А тренд, за время существования которого
успело вырасти целое поколение, начинает казаться вечным. Но это не так.
И не в такой уж дальней перспективе этот праздник миниатюризации может
если не вовсе закончиться, то существенно увеличить лаг по времени.
Дело
в том, что минимальный физически возможный размер затвора
работоспособного кремниевого транзистора - пять нанометров. Ниже этого
значения происходит явление, называемое "туннельный эффект", сводящееся к
тому, что электроны получают возможность прорвать потенциальный барьер
p-n перехода (все же помнят из курса физики, что это такое?) и, грубо
говоря, начать свободно "гулять" по соседним транзисторам процессора.
Какие это повлечет последствия для осуществляемого вычислительного
процесса догадаться нетрудно. Достаточно близкой аналогией, полагаю,
будет кот, решивший погонять мышей по клавиатуре фортепиано, на котором в
этот момент пытаются исполнять Бетховена. Вряд-ли получившиеся звуки
будут сильно похожи на ожидавшуюся "Лунную сонату".
Долгое
время считалось, что это - крайний предел, после которого наращивание
производительности вычислительных машин вновь, как в "тёплые ламповые"
времена, станет приводить к росту их размеров. И этот предел, если темпы
миниатюризации сохранятся, будет достигнут уже примерно через четыре
года.
Однако, не всё так фатально. В 2016-м году группе
физиков из Национальной лаборатории имени Лоуренса (Беркли, Калифорния)
удалось создать транзистор, размер затвора которого составил всего лишь 1
нанометр. Для этого им пришлось заменить привычный кремний молибденитом
(дисульфидом молибдена), а в качестве материала для собственно затвора
использовать углеродную нанотрубку.
Разумеется, не всё
так просто. До возможности серийного производства подобных транзисторов
ещё очень далеко, на настоящий же момент, насколько ваш покорный слуга
владеет информацией, ещё даже не тестировалась их конфигурация
размещения на кристалле процессора. Кроме того, необходимо понимать
ключевую разницу между старым добрым кремнием (содержание в земной коре
по массе - более двадцати пяти процентов) и молибденом (содержание в
земной коре по массе - три на десять в минус четвертой степени
процента). Молибден изрядно дороже, даже если речь о встречающемся в
природе в свободном виде молибдените. Да и графеновая нанотрубка вряд ли
удешевляет производство. Тем не менее, принципиальную возможность
отодвинуть нижний предел миниатюризации транзисторов за счет
использования новых материалов можно считать доказанной. Не без труда,
и, конечно, не до бесконечности, но это возможно.
Тем не
менее, само существование предела миниатюризации, долгие годы
считавшегося окончательным и нерушимым, не могло не подстегнуть
исследования в части поиска обходных путей, которые могли бы позволить и
закрыть потребность в росте вычислительных мощностей, и избежать
ограничений, свойственных транзисторной микроэлектронике. Результатом
этих исследований и стала концепция квантового компьютера.
Впервые
идея о квантовых вычислениях была высказана отечественным математиком
Юрием Ивановичем Маниным в книге "Вычислимое и невычислимое" (1980).
Вскоре американским физиком Ричардом Фейнманом в его знаменитой лекции
"Там внизу достаточно места" (1981) была предложена первая базовая
модель квантового компьютера. В то время, впрочем, еще не шло речи о
способах обхода пределов миниатюризации - по Манину и Фейнману нишей
квантовых вычислительных машин являлось моделирование эволюции квантовой
системы, в силу особенностей предметной области не поддающейся
приемлемо точному и эффективному моделированию на классических
компьютерах.
Сама по себе идея квантовых вычислений,
если попытаться выразить её более-менее понятным непосвященному языком,
основывается на том, что если увеличение числа транзисторов
классического процессора даёт линейный прирост числа описываемых
двоичных состояний, то для двухуровневых квантовых элементов, иначе
называемых квантовыми битами, или, сокращенно, кубитами, прирост будет
экспоненциальным. При том, что одиночный кубит может обработать столько
же информации, сколько и одиночный транзистор: ровно один бит. Это
становится возможным благодаря сочетанию принципа квантовой суперпозиции
(нахождение объекта одновременно в двух взаимоисключающих состояниях) и
явления квантовой запутанности (взаимозависимость квантовых состояний
двух и более объектов).
При этом, в разговоре о кубитах
сам слово "миниатюризация" даже не слишком уместно, поскольку разными
вариантами его "рабочего тела" (да простят квантовые физики мне такой
сленг) могут являться:
- направление ядерного спина в квантовой точке на полупроводнике;
- куперовская пара (электрон-фонон-электрон) в точке сверхпроводника;
- атомы в оптических ловушках.
Иными
словами, речь идёт о масштабах элементарных частиц, состоянием которых
управляют, в зависимости от реализации, либо потоком фотонов, либо
сверхслабым магнитным полем. Мельче, пожалуй, уже и некуда. Прибавим к
этому экспоненциальный рост скорости вычислений по сравнению с
классическими ЭВМ - и открывающиеся возможности начинают казаться вовсе
едва ли не безграничными.
Но во многом - именно казаться. Поскольку, как и всегда с любой прорывной технологией, есть масса нюансов.
В
силу того, что измерение состояния квантовой системы это состояние еще и
меняет (согласно принципу неопределенности Гейзенберга), результат
квантового вычисления приобретает весьма интересное свойство: он
является правильным только с некоторой вероятностью. Эту вероятность
можно существенно приблизить к стопроцентной, если многократно повторить
вычисление и выявить схождение результатов к некоторому значению.
Однако, из-за этого (на самом деле - не только, но это уже окончательно
"переполняет чашу") алгоритмы классических компьютеров для квантовых
вычислений неприменимы. Квантовая вычислительная машина работает по
специальным квантовым же алгоритмам, разработка которых тянет на
отдельное перспективное направление.
Также состояние
запутанной квантовой системы - вещь крайне чувствительная к абсолютно
любому внешнему воздействию. Любой, простите, чих способен внести
искажения в вычислительный процесс, если не вовсе разрушить квантовую
систему. Таким образом, без дополнительных весьма объемных исследований
по части экранирования внешних воздействий массовое применение квантовых
компьютеров крайне затруднено.
Одной же из наиболее
сложных проблем квантовых вычислений является так называемая проблема
масштабирования, связанная с тем же самым принципом неопределенности
Гейзенберга. Вопрос заключается в том, из какого максимального числа
связанных кубит можно построить квантовый компьютер, прежде чем эффект
декогерентности, он же - редукция фон Неймана, он же - коллапс волновой
функции, в максимально упрощенном виде - накопление искажений в
результате измерений, сделает получение внятного результата вычислений
невозможным. Этот вопрос является предметом отдельной бурно
развивающейся научной области - многочастичной квантовой механики, и
ответ на него, упрощенно, зависит от физической природы декогерентности,
которая в настоящий момент науке ещё неизвестна. Впрочем, связанное с
декогерентностью ограничение, если оно будет выявлено, отнюдь не станет
однозначным приговором всему направлению квантовых вычислений. В конце
концов, совершенно необязательно держать в состоянии квантовой
запутанности абсолютно все кубиты компьютера - вполне возможна
архитектура с применением независимых кубитных кластеров. Тем не менее,
для дальнейшего развития направления внести ясность в этом вопросе
необходимо.
Ну и, наконец, еще один нюанс, связанный с
квантовыми вычислениями, заключается в том, что квантовому ускорению
поддаются далеко не все алгоритмы. Более того, их даже меньшинство. Это,
впрочем, перестаёт выглядеть чем-то фатальным, если посмотреть, какие
именно алгоритмы всё-таки удаётся ускорить. А это по большей части -
алгоритмы решения задач перебора. Звучит достаточно просто, даже можно
сказать - простенько, но именно на них базируются задачи:
-
моделирования и прогнозирования структурной динамики сложных систем, от
собственно квантовых до биологических и, вполне возможно, социальных;
-
криптографии, где квантовые алгоритмы теоретически способны как
взломать за приемлемое время большинство считающихся надежными
современных шифров, так и построить собственные алгоритмы шифрования, по
надежности превышающие все существующие;
-
искусственного интеллекта, где скорость решения разнообразных задач
перебора в принципе является критически важным параметром.
То
есть, хоть перечень поддающихся квантовому ускорению задач и ограничен,
но представленные в нём задачи являются самым что ни на есть
мэйнстримом современного этапа развития вычислительной техники.
Ну,
и если переходить к нюансам квантовых вычислений, классифицируемых
скорее как приятные, то минимальный квантовый разряд не так сильно
привязан к двоичной логике, как классический транзистор, и создание
кутрита (ячейка с тремя состояниями) по сложности не сильно превышает
создание кубита. А это открывает весьма интересные перспективы. Согласно
исследованиям группы ученых из Квинслендского университета (Австралия),
опубликованным в 2008-м году, использование многомерных ячеек в
принципе способно существенно упростить реализацию квантовых алгоритмов и
вычислительных машин. Кроме того, троичная логика сама по себе, даже
без учета особенностей физической реализации, имеет ряд преимуществ по
сравнению с двоичной, в общем виде сводящихся к большей надежности
вычислений, дополнительному двукратному приросту быстродействия при
решении задач сложения и большему удобству при решении задач,
подразумевающих троичность по своей природе, таких как обработка
RGB-изображений (включая распознавание образов), или задачи
моделирования в трёхмерном пространстве. При этом, троичную логику можно
воспринимать, как расширение двоичной, включаемой в неё, как
подмножество, благодаря чему троичный компьютер может всё то же самое,
что и двоичный - и ещё немного сверх этого. Широкого распространения
троичные компьютеры не получили из-за стоимости, минимум в полтора раза
превышающей стоимость двоичной машины. Однако, в случае с квантовыми
компьютерами ожидаемая разница в стоимости будет меньше. Так что -
почему нет?
Полноценный универсальный квантовый
компьютер на данный момент остаётся устройством сугубо гипотетическим.
Однако, к настоящему времени во многих научных лабораториях по всему
миру были созданы работоспособные квантовые процессоры, среди которых
можно выделить двухкубитное устройство, созданное в лаборатории
сверхпроводимости Москвы группой Ю. Пашкина (2005) и совместный
российско-американский проект 51-кубитного компьютера, разработанный под
руководством М. Лукина и являющийся самой сложной подобной системой из
существующих (2017). Эти и прочие подобные машины создаются как правило
для решения единственной задачи, преимущественно - для исследований в
области квантовой механики, где уже поспособствовали открытию ряда
прежде неизвестных эффектов.
Отдельно можно упомянуть и
первый имеющийся опыт создания коммерческих квантовых компьютеров
канадской компанией D-Wave. Впрочем, пример этот - достаточно спорный.
Компьютеры D-Wave работают на несколько отличающихся от прочих квантовых
архитектур принципах, и для реализации традиционных квантовых
алгоритмов не подходят, решая только одну задачу - дискретную
оптимизацию. Кроме того, сведений, подтверждающих, что D-Wave работает
быстрее обычного компьютера и что он в принципе является квантовым
(использует эффект квантовой запутанности), которые бы не исходили от
самой D-Wave или взявшего её в партнеры по разработке искусственного
интеллекта Google, не имеется. Не станем, конечно, делать громких
заявлений, но это вызывает определенные вопросы, особенно в свете того,
что крупнейшим заказчиком D-Wave является Lockheed Martin, а разговоров о
колоссальных масштабах распило-откаточных работ в американской оборонке
ходит изрядно. Sapienti sat.
Собственно, к чему всё
это, в особенности - в свете принятой у нас программы цифровой экономики
и сакцентированных в тексте выше российских наработках в области
квантовых вычислений. Ну, и непосредственно футурологического прогноза.
О
наступлении новой информационной эры слышали, пожалуй, все. Но вместе с
тем распространено достаточно некорректное "попсовое" восприятие
явления: как этакой IT-утопии, где работают роботы, а люди или пишут к
ним программки, или "генерят контент", удаленно подключив свой гаджет к
рабочему серверу с какого-нибудь тропического курорта.
Но
на практике это не так. В реальности имеет место скорее беспрецедентное
ускорение экономических и социальных процессов, вызванное наличием
принципиальной возможности получить практически в реальном времени
значительные объемы информации с противоположной стороны глобуса. То
есть, дело скорее в развитии систем связи и их глобальном
распространении. В этих условиях информация действительно приобретает
особую ценность, поскольку позволяет реагировать на стремительно
развивающиеся события вовремя. Но одного доступа к информации мало,
поскольку самой информации временами даже слишком много - при том, что
она бывает разрозненной, неполной, некорректной, или вовсе
дезинформацией. Это порождает непрерывно возрастающую потребность в
наличии мощных и надежных инструментов обработки поступающих сведений и
выработки на их основе вариантов решений.
Таким образом,
при том, что важность "архаичных" отраслей (которым меньше повезло с
пиар-менеджерами) никто не отменял, следует ожидать своего рода "гонки
вооружений" в создании подобных систем, что не в такой далекой
перспективе может стать (или даже - уже становится) делом не
коммерческим, а государственным. Можно, пожалуй, даже предположить
картину (несколько по-лубочному гипертрофированную, но всё-таки), при
которой бурные дебаты в парламенте станет вызывать не моральная оценка
образцов развлекательной индустрии, а сравнение построенных различными
системами комплексных графиков развития ситуации. С детальным разбором
погрешностей моделирования в этих системах.
При этом,
любому понятно, что подобная система, пусть даже самая совершенная, без
элементной базы не значит ничего. А в части традиционной
микроэлектроники вступать в гонку с Кремниевой долиной, при их уже
существующей инфраструктуре и работающих научных направлениях, чисто
теоретически можно, но вырваться в ней на первые позиции будет уже...
Пожалуй, тоже можно, но очень тяжело и за неприемлемо длительное время.
И
вот тут привлекают к себе особое внимание квантовые компьютеры.
Во-первых, тем, что с производственной базой по их созданию ситуация во
всём мире примерно одинаковая - этой базы попросту нет. Во-вторых, тем,
что те задачи, которые квантовые компьютеры решают лучше всего,
замечательным образом совпадают с задачами, которые ставит наступление
информационной эры. И в-третьих, тем, что российские учёные располагают
собственными солидными наработками в части квантовых вычислений, причём,
что надо особо отметить, не в рамках общей глобальной "кубитовой
гонки", а в собственном направлении - разработке кубитов на
сверхпроводниках (чем параллельно развивают обе тематики).
Если
обобщить, то получается, что в сфере квантовых вычислений всё в наших
руках. И есть вполне реальные шансы сделать эту сферу одним из столпов
(наряду с, например, атомной энергетикой, космосом и оборонкой) нашего
будущего лидерства. А для этого нужно уже сейчас начинать очень плотно
над этим работать - даром что время пока еще есть. Источник: cont.ws.
Рейтинг публикации:
|