СОЗДАНИЕ ПЕРЕНОСИМОГО ПРОГРАММНОГО КОМПЛЕКСА ДЛЯ МОНИТОРИНГА И АНАЛИЗА ПРОИЗВОДИТЕЛЬНОСТИ СУПЕРКОМПЬЮТЕРНЫХ ПРИЛОЖЕНИЙ (2023)
Современные суперкомпьютеры востребованы в самых разных областях науки и техники. Однако их вычислительные ресурсы зачастую используются не в полной мере. Причина нередко кроется в низкой эффективности выполнения пользовательских приложений. Решить возникшую проблему весьма непросто, что связано как с чрезвычайной сложностью строения современных суперкомпьютеров, так и с недостатком теоретических знаний и практического опыта в создании высокоэффективных параллельных приложений у пользователей вычислительных систем. Более того, пользователи зачастую и не знают, что их приложения работают неэффективно. Поэтому важно, чтобы администраторы суперкомпьютеров могли постоянно контролировать и анализировать весь поток выполняющихся приложений. Для этих целей можно использовать различные существующие системы мониторинга и анализа производительности, однако подобные решения в большинстве своем либо не предоставляют достаточный функционал в части изучения производительности, либо не переносимы. В данной работе описывается прототип разрабатываемого программного комплекса, который предоставляет широкие возможности по сбору и автоматическому анализу данных о производительности приложений и при этом является переносимым.
Идентификаторы и классификаторы
- eLIBRARY ID
- 50397345
Вопрос эффективности использования суперкомпьютерных ресурсов давно является актуальной темой, исследуемой многими учеными по всему миру. Можно выделить две основные причины этого. Во-первых, область высокопроизводительных вычислений становится все более востребованной [1], и современные суперкомпьютеры используются для моделирования в самых разных предметных областях. При этом вычислительные ресурсы ст´оят очень дорого [2], и соответственно, любой заметный простой ресурсов приводит к значительным финансовым потерям. Во-вторых, архитектура современных суперкомпьютеров настолько сложна, что написать параллельную программу, которая будет решать реальную научную задачу и при этом будет обладать высокой эффективностью (т.е. будет аккуратно учитывать все тонкости используемого аппаратного обеспечения), очень непросто.
В работе [3] отмечено, что пользователи не всегда уделяют достаточно внимания вопросам эффективности выполнения своих приложений и поэтому могут быть не в курсе наличия в них проблем с производительностью. В такой ситуации забота об обеспечении и поддержании высокой эффективности функционирования вычислительных систем на практике во многом ложится на плечи системных администраторов и менеджеров суперкомпьютерных центров (хотя отметим, что они и так заинтересованы в этом, поскольку повышение эффективности приводит к тому, что при тех же физических ресурсах центра решается больше задач, можно обслужить больше пользователей и т.п.).
Список литературы
- High Performance Computing Market Size to Surpass USD 64.65 Bn by 2030. https://www.globenewswire.com/news-release/2022/04/04/2415844/0/en/High-Performance-Computing-Market-Size-to-Surpass-USD-64-65-Bn-by-2030.html Cited January 3, 2023.
- Yu. Belkina and D. Nikitenko, “Computing Cost and Accounting Challenges for Octoshell Management System”, in Proc. 4th Ural Workshop on Parallel, Distributed, and Cloud Computing for Young Scientists, Yekaterinburg, Russia, November 15, 2018. CEUR Workshop Proc. 2281, 146-158 (2018). http://ceur-ws.org/Vol-2281/paper-15.pdf.
- D. A. Nikitenko, P. A. Shvets, and V. V. Voevodin, “Why Do Users Need to Take Care of Their HPC Applications Efficiency?”, Lobachevskii J. Math. 41 (8), 1521-1532 (2020). DOI: 10.1134/s1995080220080132 EDN: ZJQJEI
- K. S. Stefanov, S. Pawar, A. Ranjan, et al., “A Review of Supercomputer Performance Monitoring Systems”, Supercomput. Front. Innov. 8 (3), 62-81 (2021). DOI: 10.14529/jsfi210304 EDN: FZIAVM
- Performance Co-Pilot. http://pcp.io/ Cited January 4, 2023.
- T. Röhl, J. Eitzinger, G. Hager, and G. Wellein, “LIKWID Monitoring Stack: A Flexible Framework Enabling Job Specific Performance Monitoring for the Masses”, in Proc. 2017 IEEE Int. Conf. on Cluster Computing (CLUSTER), Honolulu, USA, September 5-8, 2017 (IEEE Press, New York, 2017), pp. 781-784. DOI: 10.1109/CLUSTER.2017.115
- M. L. Massie, B. N. Chun, and D. E. Culler, “The Ganglia Distributed Monitoring System: Design, Implementation, and Experience”, Parallel Comput. 30 (7), 817-840 (2004). DOI: 10.1016/j.parco.2004.04.001
- J. M. Brandt, B. J. Debusschere, A. C. Gentile, et al., “Ovis-2: A Robust Distributed Architecture for Scalable RAS”, in Proc. IEEE Int. Symp. on Parallel and Distributed Processing, Miami, USA, April 14-18, 2008 (IEEE Press, New York, 2008),. DOI: 10.1109/IPDPS.2008.4536549
- M. D. Jones, J. P. White, M. Innus, et al., Workload Analysis of Blue Waters, arXiv preprint: 1703.00924v1 [cs.DC] (Cornell Univ. Library, Ithaca, 2017). https://arxiv.org/abs/1703.00924 Cited January 4, 2023.
-
N. A. Simakov, J. P. White, R. L. DeLeon, et al., A Workload Analysis of NSF's Innovative HPC Resources Using XDMoD, arXiv preprint: 1801.04306v1 [cs.DC] (Cornell Univ. Library, Ithaca, 2018). https://arxiv.org/abs/1801.04306 Cited January 4, 2023.
-
D. L. Hart, "Measuring TeraGrid: Workload Characterization for a High-Performance Computing Federation", Int. J. High Perform. Comput. Appl. 25 (4), 451-465 (2011). DOI: 10.1177/1094342010394382
-
S. M. Gallo, J. P. White, R. L. DeLeon, et al., "Analysis of XDMoD/SUPReMM Data Using Machine Learning Techniques", in 2015 IEEE Int. Conf. on Cluster Computing, Chicago, USA, September 8-11, 2015 (IEEE Press, New York, 2015), pp. 642-649. DOI: 10.1109/CLUSTER.2015.114
-
J. T. Palmer, S. M. Gallo, T. R. Furlani, et al., "Open XDMoD: A Tool for the Comprehensive Management of High-Performance Computing Resources", Comput. Sci. Eng. 17 (4), 52-62 (2015). DOI: 10.1109/MCSE.2015.68
-
T. Evans, W. L. Barth, J. C. Browne, et al., "Comprehensive Resource Use Monitoring for HPC Systems with TACC Stats", in Proc. First Int. Workshop on HPC User Support Tools, New Orleans, USA, November 21-21, 2014 (IEEE Press, New York, 2014), pp. 13-21. DOI: 10.1109/HUST.2014.7
-
P. Kostenetskiy, A. Shamsutdinov, R. Chulkevich, et al., "HPC TaskMaster - Task Efficiency Monitoring System for the Supercomputer Center", in Communications in Computer and Information Science (Springer, Cham, 2022), Vol. 1618, pp. 17-29. DOI: 10.1007/978-3-031-1623-0_ 2
-
K. Stefanov, Vl. Voevodin, S. Zhumatiy, and Vad. Voevodin, "Dynamically Reconfigurable Distributed Modular Monitoring System for Supercomputers (DiMMon)", Procedia Comput. Sci. 66, 625-634 (2015). DOI: 10.1016/j.procs.2015.11.071 EDN: WSTKBJ
-
P. Shvets, V. Voevodin, and S. Zhumatiy, "HPC Software for Massive Analysis of the Parallel Efficiency of Applications", in Communications in Computer and Information Science (Springer, Cham, 2019), Vol. 1063, pp. 3-18. EDN: ESVLFK
-
P. Shvets, V. Voevodin, and S. Zhumatiy, "Primary Automatic Analysis of the Entire Flow of Supercomputer Applications", in Proc. 4th Ural Workshop on Parallel, Distributed, and Cloud Computing for Young Scientists, Yekaterinburg, Russia, November 15, 2018. CEUR Workshop Proc. 2281, 20-32 (2018). http://ceur-ws.org/Vol-2281/paper-03.pdf.
-
D. Nikitenko, A. Antonov, P. Shvets, et al., "JobDigest - Detailed System Monitoring-Based Supercomputer Application Behavior Analysis", in Communications in Computer and Information Science (Springer, Cham, 2017), Vol. 793, pp. 516-529. DOI: 10.1007/978-3-319-71255-0_42 EDN: XNXOCU
Выпуск
Методы и алгоритмы вычислительной математики и их приложения.
Параллельные программные средства и технологии.
Другие статьи выпуска
В статье рассматривается задача планирования работ на многоядерном процессоре с учетом их замедления при совместном выполнении. Предложена постановка задачи и модель частично целочисленного линейного программирования, доказана NP-трудность задачи при числе ядер, ограниченном константой. Результаты планировщика Intel TBB и жадного алгоритма сравниваются с результатами, полученными в соответствии с предложенной моделью с помощью пакета CPLEX. Проведенный эксперимент показал преимущества предложенного подхода по времени завершения всех работ.
Проект создания цифровой платформы Algo500 направлен на решение задачи совместного анализа свойств алгоритмов и особенностей архитектур суперкомпьютеров. В статье на основе методологии онтологического анализа рассматриваются и предлагаются понятия, модели и метамодели данных, обосновываются подходы к описанию некоторых понятий из мира высокопроизводительных вычислений (HPC), устанавливаются новые требования к моделям данных, которые должны обеспечить выполнение задач, поставленных при создании платформы Algo500.
Представлен алгоритм численного моделирования квазистатической нагрузки пористого флюидонасыщенного образца для решения задачи апскейлинга трещиновато-пористой флюидонасыщенной среды. В результате апскейлинга восстанавливается анизотропная однородная вязкоупругая эквивалентная среда, определяемая комплекснозначным частотно-зависимым тензором жесткости. Компоненты восстановленного тензора жесткости эквивалентной среды используются для оценки частотно-зависимого сейсмического затухания и фазовой скорости сейсмических волн. Численный апскейлинг включает в себя численное решение краевой задачи для системы уравнений Био анизотропной пороупругой флюидонасыщенной среды в частотной области для набора частот и различных граничных условий. Численное решение системы уравнений Био основано на конечно-разностной аппроксимации уравнений в квазистатической постановке и проводится с использованием прямого решателя результирующей СЛАУ. Используемый прямой решатель позволяет эффективно решать СЛАУ для набора правых частей, что необходимо при численном апскейлинге. Представленная реализация алгоритма позволяет численно решать двумерную задачу апскейлинга на расчетной сетке с размерами до 2000 × 2000 узлов на персональном компьютере, что обеспечивает возможность восстанавливать эквивалентную вязкоупругую модель для детализированных репрезентативных образцов трещиновато-пористой среды. Для демонстрации применимости алгоритма выполнено несколько наборов численных экспериментов, направленных на выявление влияния связности трещин и микромасштабной анизотропии пороупругого материала внутри трещин на затухание, вызванное индуцированными волной потоками флюидов, и дисперсию сейсмической волны в сложной трещиновато-пористой флюидонасыщенной среде.
Рассматривается задача параллельной реализации алгоритма определения сейсмического источника внутри случайно-неоднородной среды. Алгоритм определения исходной позиции источника использует данные записанных сейсмограмм на свободной поверхности и информацию о статистических свойствах случайной среды. Предложенный подход требует решения большого количества задач динамической теории упругости для различных статистически эквивалентных скоростных моделей, идентифицированных по статистическим параметрам исходной среды. Это наиболее трудоемкая часть алгоритма решения. Чтобы ускорить расчеты, используется двухуровневая стратегия распараллеливания с помощью создания групп, каждая из которых решает свою задачу динамической теории упругости с декомпозицией расчетной области внутри группы. Реализация программы выполнена с использованием Fortran Coarray. Также приводится сравнение используемых конструкций расширения Fortran Coarray с функциями MPI.
Рассмотрено моделирование гравитационной задачи N тел с использованием алгоритмов PM и P3M. Реализация алгоритмов для GPU осуществлена с применением вычислительных шейдеров. Предложенный подход использует CPU-код только для синхронизации и запуска шейдеров и не содержит вычислительных частей, реализуемых на CPU; в том числе полностью отсутствует копирование данных между CPU и GPU. Приводятся параллельный алгоритм размещения частиц по ячейкам сетки и параллельный алгоритм распределения масс по узлам сетки. Основой алгоритмов является параллельное построение списков, соответствующих ячейкам сетки. Алгоритмы полностью распараллелены и не содержат частей, исполняемых в один поток. Для расчета одновременно с визуализацией часть вычислений сделана в вершинном шейдере. Выполнить их позволило использование буферных объектов в вершинном шейдере и специально подготовленных данных вместо вершин в качестве входа. Приведены результаты численных расчетов на примере образования галактических скоплений в расширяющейся согласно модели Фридмана плоской вселенной. В качестве модели вселенной брался куб с периодическими краевыми условиями по всем осям. Максимальное число частиц, с которым проводились расчеты, - 108. Для моделирования использовались современный кроссплатформенный API Vulkan и язык GLSL. Результаты расчетов на процессорах Apple M1 и Ryzen 3700X сравниваются с результатами расчетов на обычных видеокартах Apple M1 и NVIDIA RTX 3060. Параллельный алгоритм для CPU реализован с помощью OpenMP. Проведено сравнение производительности алгоритма с результатами других авторов, причем делаются качественные сравнения самих результатов вычислений и сравнение времени работы алгоритмов. Также приведено сравнение времени работы программы для GPU и похожей программы для кластера из многих узлов.
Исследована проблема существования и единственности полилинейных продолжений некоторых дискретных функций. Доказано, что для любой булевой функции существует соответствующее полилинейное продолжение и оно единственно. Предложен алгоритм нахождения полилинейного продолжения булевой функции и доказана его корректность. На основе предложенного алгоритма найдены явные формы полилинейных продолжений сначала для булевой функции, а затем для произвольной функции, определенной на множестве вершин n-мерного единичного куба, произвольного куба и параллелепипеда, и в каждом конкретном случае доказана единственность соответствующего полилинейного продолжения.
Effective output from data centers are determined by many complementary factors. Often, attention is paid to only a few, at first glance, the most significant of them. For example, this is the efficiency of the scheduler, the efficiency of resource utilization by user tasks. At the same time, a more general view of the problem is often missed: the level at which the interconnection of work processes in the HPC center is determined, the organization of effective work as a whole. missions at this stage can negate any subtle optimizations at a low level. This paper provides a scheme for describing workflows in the supercomputer center and analyzes the experience of large HPC facilities in identifying the bottlenecks in this chain. A software implementation option that gives the possibility of optimizing the organization of work at all stages is also proposed in the form of a support system for the functioning of the HPC site.
Издательство
- Издательство
- МГУ
- Регион
- Россия, Москва
- Почтовый адрес
- оссийская Федерация, 119991, Москва, Ленинские горы, д. 1
- Юр. адрес
- оссийская Федерация, 119991, Москва, Ленинские горы, д. 1
- ФИО
- Садовничий Виктор Антонович (РЕКТОР)
- E-mail адрес
- info@rector.msu.ru
- Контактный телефон
- +7 (495) 9391000
- Сайт
- https://msu.ru/