Исследователи из университета Квинса в Белфасте (Queen's University Belfast), Манчестерского университета (University of Manchester) и лаборатории STFC Daresbury занимаются разработкой нового программного обеспечения, которое способно существенно увеличить вычислительную мощность современных суперкомпьютеров при обработке наборов "больших данных", сократив до допустимого минимума количество расходуемой на это энергии. Данная работа выполняется в рамках программы SERT (The Scalable, Energy-Efficient, Resilient and Transparent Software Adaptation), а ее ключевым моментом является так называемая
технология "приблизительных вычислений" (approximate computing), известная еще под названием "significance-based computing", форма "разгона" при которой
надежность и точность вычислений жертвуются в сторону увеличения быстродействия и снижения количества потребляемой энергии.
Основная идея заключается в реализации управления аппаратными средствами вычислительных систем таким образом, что их компоненты работают при напряжении, немного превышающем допустимое пороговое значение (near-threshold voltage, NTV). В таких условиях все компоненты работают не очень надежно, часто совершая ошибки. Предполагается, что специализированное программное обеспечение и параллелизм вычислений позволят выявить и устранить возникающие вычислительные ошибки несколькими различными методами.
"Мы исследуем сценарии, в которых программы разделяются на критические и несущественные участки. И эти участки выборочно выполняются суперкомпьютером на тех аппаратных средствах, которые обеспечивают требующийся уровень надежности, но не более того" - пишут исследователи, - "Сейчас мы формируем наборы правил, по которым будут определяться участки алгоритмов, которые невосприимчивы к возникающим ошибкам. Остальные участки алгоритмов являются критическими, возникновение ошибок при их исполнении чревато проведением повторных вычислений и, следовательно, к перерасходу энергии".
Кроме определения наборов правил, по которым участки кода будут разделяться на несколько категорий, исследователи работают над разработкой вычислительных методов, повышающих устойчивость программы к возникновению ошибок. Более того, ведется разработка алгоритмов расстановки контрольных точек, в которых производится анализ исходных данных и результатов вычислений, что позволяет выявить возникновение "тихих" ошибок вычислений или повреждения данных.
"Использование таких программных решений позволит производить обработку больших наборов данных или сложнейших математических моделей гораздо быстрее и с меньшими затратами энергии, нежели бы над этим работал тот же самый суперкомпьютер, функционирующий в обычном режиме" - рассказывает профессор Димитриос Николопулос (Dimitrios Nikolopoulos), научный руководитель проекта SERT.
Следует отметить, что реализация проекта SERT была начата только в этом месяце с момента получения финансирования в размере одного миллиона фунтов стерлингов от британского совета EPSRC (Engineering and Physical Sciences Research Council). А первыми программами, которые испытают на себе всю мощь "разогнанных" суперкомпьютеров, станут детализированные модели природных явлений, таких, как океанские течения, модели систем и органов человеческого организма, климатические модели и многое другое из области энергетики, метеорологии, транспорта, науки и т.п.
Статус: |
Группа: Посетители
публикации 3
комментариев 1066
Рейтинг поста:
По русски это будет.
Система "Как то так"