ПАРАЛЛЕЛЬНАЯ РЕАЛИЗАЦИЯ АЛГОРИТМА ВОССТАНОВЛЕНИЯ СЕЙСМИЧЕСКОГО ИСТОЧНИКА ПО СЕРИИ СТАТИСТИЧЕСКИ ИДЕНТИЧНЫХ МОДЕЛЕЙ СРЕДЫ С ПРИМЕНЕНИЕМ FORTRAN COARRAY (2023)
Рассматривается задача параллельной реализации алгоритма определения сейсмического источника внутри случайно-неоднородной среды. Алгоритм определения исходной позиции источника использует данные записанных сейсмограмм на свободной поверхности и информацию о статистических свойствах случайной среды. Предложенный подход требует решения большого количества задач динамической теории упругости для различных статистически эквивалентных скоростных моделей, идентифицированных по статистическим параметрам исходной среды. Это наиболее трудоемкая часть алгоритма решения. Чтобы ускорить расчеты, используется двухуровневая стратегия распараллеливания с помощью создания групп, каждая из которых решает свою задачу динамической теории упругости с декомпозицией расчетной области внутри группы. Реализация программы выполнена с использованием Fortran Coarray. Также приводится сравнение используемых конструкций расширения Fortran Coarray с функциями MPI.
Идентификаторы и классификаторы
- eLIBRARY ID
- 50397347
Численное решение задач полевой разведочной геофизики относится к задачам прикладной математики, для решения которых требуется разработка эффективных методов численных расчетов с использованием современных высокопроизводительных компьютеров. Применение методов конечных элементов (МКЭ) [1, 2], псевдоспектральных методов (ПСМ) [3, 4], методов спектральных элементов (СЭМ) [5] и метода конечных разностей (МКР) [6–9] позволяет с высокой точностью моделировать распространение сейсмических волн в неоднородных трехмерных средах на основе уравнений динамической теории упругости для упругих/анизотропных/вязкоупругих сред [10–13]. Однако расчеты с высокой точностью связаны со значительными вычислительными затратами и большим объемом вычислительных ресурсов. Кроме того, одной из особенностей решения задач разведочной сейсмологии и глобальной томографии Земли является необходимость решения задач минимизации путем одновременного или последовательного рассмотрения и анализа решений для не менее чем нескольких тысяч моделей распространения волн. Поэтому методы повышения эффективности решения таких задач напрямую влияют не только на эффективность, но и на саму возможность их решения.
В работе рассматривается задача восстановления местоположения сейсмического источника внутри случайно-неоднородной среды. Эта задача представляет большой интерес и возникает, например, в сейсмологических приложениях при определении местоположения очага землетрясения.
Список литературы
- C. Yoshimura, J. Bielak, Y. Hisada, and A. Fernández, “Domain Reduction Method for Three-Dimensional Earthquake Modeling in Localized Regions, Part II: Verification and Applications”, Bull. Seismol. Soc. Am. 93 (2), 825-841 (2003). https://www.crossref.org/iPage?doi=10.1785. DOI: 10.1785/0120010252
- P. Moczo, J. Kristek, M. Galis, et al., “3-D Finite-Difference, Finite-Element, Discontinuous-Galerkin and Spectral-Element Schemes Analysed for Their Accuracy with Respect to P-Wave to S-Wave Speed Ratio”, Geophys. J. Int. 187 (3), 1645-1667 (2011). DOI: 10.1111/j.1365-246X.2011.05221.x
- B. Fornberg, “The Pseudospectral Method: Accurate Representation of Interfaces in Elastic Wave Calculations”, Geophysics. 53 (5), 625-637 (1988). https://library.seg.org/doi/. DOI: 10.1190/1.1442497
- H. Takenaka, Y. Wang, and T. Furumura, “An Efficient Approach of the Pseudospectral Method for Modelling of Geometrically Symmetric Seismic Wavefield”, Earth Planets Space 51 (2), 73-79 (1999). https://earth-planets-space.springeropen.com/articles/. DOI: 10.1186/BF03352212
- E. Chaljub, D. Komatitsch, J.-P. Vilotte, et al., “Spectral-Element Analysis in Seismology”, Adv. Geophys. 48, 365-419 (2007). https://www.sciencedirect.com/science/article/abs/pii/S0065268706480079. DOI: 10.1016/S0065-2687(06)48007-9
- P. Moczo, J. Kristek, and L. Halada, “3D Fourth-Order Staggered-Grid Finite-Difference Schemes: Stability and Grid Dispersion”, Bull. Seismol. Soc. Am. 90 (3), 587-603 (2000). https://www.crossref.org/iPage?doi=10.1785. DOI: 10.1785/0119990119
- J. Virieux, “P-SV Wave Propagation in Heterogeneous Media: Velocity-Stress Finite-Difference Method”, Geophysics. 51 (4), 889-901 (1986). https://library.seg.org/doi/. DOI: 10.1190/1.1442147
- A. R. Levander, “Fourth-Order Finite-Difference P-SV Seismograms”, Geophysics 53 (11), 1425-1436 (1988). https://library.seg.org/doi/. DOI: 10.1190/1.1442422
- E. Tessmer, “Seismic Finite-Difference Modeling with Spatially Varying Time Steps”, Geophysics. 65 (4), 1290-1293 (2000). https://library.seg.org/doi/. DOI: 10.1190/1.1444820
-
P. Moczo, J. Kristek, V. Vavrycuk, et al., "3D Heterogeneous Staggered-Grid Finite-Difference Modeling of Seismic Motion with Volume Harmonic and Arithmetic Averaging of Elastic Moduli and Densities", Bull. Seismol. Soc. Am. 92 (8), 3042-3066 (2002). https://pubs.geoscienceworld.org/ssa/bssa/article-abstract/92/8/3042/103016/3D-. DOI: 10.1785/0120010167
-
M. Dumbser, M. Käser, and J. De La Puente, "Arbitrary High-Order Finite Volume Schemes for Seismic Wave Propagation on Unstructured Meshes in 2D and 3D", Geophys. J. Int. 171 (2), 665-694 (2007). https://academic.oup.com/gji/article/171/2/665/656710. DOI: 10.1111/j.1365-246X.2007.03421.x EDN: XTYCUJ
-
D. Peter, D. Komatitsch, Y. Luo, et al., "Forward and Adjoint Simulations of Seismic Wave Propagation on Fully Unstructured Hexahedral Meshes", Geophys. J. Int. 186 (2), 721-739 (2011). https://academic.oup.com/gji/article/186/2/721/590417. DOI: 10.1111/j.1365-246X.2011.05044.x EDN: ONEWXD
-
P. Cupillard, E. Delavaud, G. Burgos, et al., "RegSEM: A Versatile Code Based on the Spectral Element Method to Compute Seismic Wave Propagation at the Regional Scale", Geophys. J. Int. 188 (3), 1203-1220 (2012). https://academic.oup.com/gji/article/188/3/1203/686715. DOI: 10.1111/j.1365-246X.2011.05311.x
-
V. I. Kostin, V. V. Lisitsa, G. V. Reshetova, and V. A. Tcheverda, "Finite Difference Simulation of Elastic Waves Propagation through 3D Heterogeneous Multiscale Media Based on Locally Refined Grids", Sib. Zh. Vych. Mat. 16 (1), 45-55 (2013) [Numer. Anal. Appl. 6 (1), 40-48 (2013)]. https://link.springer.com/article/. DOI: 10.1134/S1995423913010059 EDN: PYFPOV
-
M. Fink, "Time Reversal in Acoustics", Contemp. Phys. 37 (2), 95-109 (1996). https://www.tandfonline.com/doi/abs/. DOI: 10.1080/00107519608230338
-
M. Fink, "Time Reversed Acoustics", Phys. Today 50 (3), 34-40 (1997). https://physicstoday.scitation.org/doi/. DOI: 10.1063/1.881692 EDN: CLZLIR
-
M. Fink, G. Montaldo, and M. Tanter, "Time-Reversal Acoustics in Biomedical Engineering", Annu. Rev. Biomed. Eng. 5, 465-497 (2003). https://www.annualreviews.org/doi/abs/. DOI: 10.1146/annurev.bioeng.5.040202.121630
-
G. Reshetova, V. Cheverda, and V. Koinov, "Comparative Efficiency Analysis of MPI Blocking and Non-blocking Communications with Coarray Fortran", in Communications in Computer and Information Science (Springer, Cham, 2021), Vol. 1510, pp. 322-336. https://link.springer.com/chapter/. DOI: 10.1007/978-3-030-92864-3_25 EDN: QKUBRL
-
R. W. Graves, "Simulating Seismic Wave Propagation in 3D Elastic Media Using Staggered-Grid Finite Differences", Bull. Seismol. Soc. Am. 86 (4), 1091-1106 (1996). https://pubs.geoscienceworld.org/ssa/bssa/article-abstract/86/4/1091/120141. DOI: 10.1785/BSSA0860041091
-
F. Collino and C. Tsogka, "Application of the Perfectly Matched Absorbing Layer Model to the Linear Elastodynamic Problem in Anisotropic Heterogeneous Media", Geophysics 66 (1), 294-307 (2001). https://www.researchgate.net/publication/228544899_Application. DOI: 10.1190/1.1444908
-
H. Sato, M. C. Fehler, and T. Maeda, Seismic Wave Propagation and Scattering in the Heterogeneous Earth (Springer, Berlin, 2012). https://link.springer.com/book/. DOI: 10.1007/978-3-642-23029-5 EDN: UVNSWZ
-
H. A. Schwarz, "Über einige Abbildungsaufgaben", J. für die Reine und Angew. Math. 1869 (70), 105-120 (1869). https://eudml.org/doc/148076. DOI: 10.1515/crll.1869.70.105
-
S. L. Sobolev, "Schwarz's Algorithm in Elasticity Theory", in Selected Works of S.L. Sobolev (Springer, Boston, 2006), pp. 399-403. https://link.springer.com/chapter/. DOI: 10.1007/978-0-387-34149-1_12
-
J. Reid, "The New Features of Fortran 2018", ACM SIGPLAN Fortran Forum 37 (1), 5-43 (2018). https://dl.acm.org/doi/abs/10.1145. DOI: 10.1145/3206214.3206215
Выпуск
Методы и алгоритмы вычислительной математики и их приложения.
Параллельные программные средства и технологии.
Другие статьи выпуска
В статье рассматривается задача планирования работ на многоядерном процессоре с учетом их замедления при совместном выполнении. Предложена постановка задачи и модель частично целочисленного линейного программирования, доказана NP-трудность задачи при числе ядер, ограниченном константой. Результаты планировщика Intel TBB и жадного алгоритма сравниваются с результатами, полученными в соответствии с предложенной моделью с помощью пакета CPLEX. Проведенный эксперимент показал преимущества предложенного подхода по времени завершения всех работ.
Проект создания цифровой платформы Algo500 направлен на решение задачи совместного анализа свойств алгоритмов и особенностей архитектур суперкомпьютеров. В статье на основе методологии онтологического анализа рассматриваются и предлагаются понятия, модели и метамодели данных, обосновываются подходы к описанию некоторых понятий из мира высокопроизводительных вычислений (HPC), устанавливаются новые требования к моделям данных, которые должны обеспечить выполнение задач, поставленных при создании платформы Algo500.
Представлен алгоритм численного моделирования квазистатической нагрузки пористого флюидонасыщенного образца для решения задачи апскейлинга трещиновато-пористой флюидонасыщенной среды. В результате апскейлинга восстанавливается анизотропная однородная вязкоупругая эквивалентная среда, определяемая комплекснозначным частотно-зависимым тензором жесткости. Компоненты восстановленного тензора жесткости эквивалентной среды используются для оценки частотно-зависимого сейсмического затухания и фазовой скорости сейсмических волн. Численный апскейлинг включает в себя численное решение краевой задачи для системы уравнений Био анизотропной пороупругой флюидонасыщенной среды в частотной области для набора частот и различных граничных условий. Численное решение системы уравнений Био основано на конечно-разностной аппроксимации уравнений в квазистатической постановке и проводится с использованием прямого решателя результирующей СЛАУ. Используемый прямой решатель позволяет эффективно решать СЛАУ для набора правых частей, что необходимо при численном апскейлинге. Представленная реализация алгоритма позволяет численно решать двумерную задачу апскейлинга на расчетной сетке с размерами до 2000 × 2000 узлов на персональном компьютере, что обеспечивает возможность восстанавливать эквивалентную вязкоупругую модель для детализированных репрезентативных образцов трещиновато-пористой среды. Для демонстрации применимости алгоритма выполнено несколько наборов численных экспериментов, направленных на выявление влияния связности трещин и микромасштабной анизотропии пороупругого материала внутри трещин на затухание, вызванное индуцированными волной потоками флюидов, и дисперсию сейсмической волны в сложной трещиновато-пористой флюидонасыщенной среде.
Рассмотрено моделирование гравитационной задачи N тел с использованием алгоритмов PM и P3M. Реализация алгоритмов для GPU осуществлена с применением вычислительных шейдеров. Предложенный подход использует CPU-код только для синхронизации и запуска шейдеров и не содержит вычислительных частей, реализуемых на CPU; в том числе полностью отсутствует копирование данных между CPU и GPU. Приводятся параллельный алгоритм размещения частиц по ячейкам сетки и параллельный алгоритм распределения масс по узлам сетки. Основой алгоритмов является параллельное построение списков, соответствующих ячейкам сетки. Алгоритмы полностью распараллелены и не содержат частей, исполняемых в один поток. Для расчета одновременно с визуализацией часть вычислений сделана в вершинном шейдере. Выполнить их позволило использование буферных объектов в вершинном шейдере и специально подготовленных данных вместо вершин в качестве входа. Приведены результаты численных расчетов на примере образования галактических скоплений в расширяющейся согласно модели Фридмана плоской вселенной. В качестве модели вселенной брался куб с периодическими краевыми условиями по всем осям. Максимальное число частиц, с которым проводились расчеты, - 108. Для моделирования использовались современный кроссплатформенный API Vulkan и язык GLSL. Результаты расчетов на процессорах Apple M1 и Ryzen 3700X сравниваются с результатами расчетов на обычных видеокартах Apple M1 и NVIDIA RTX 3060. Параллельный алгоритм для CPU реализован с помощью OpenMP. Проведено сравнение производительности алгоритма с результатами других авторов, причем делаются качественные сравнения самих результатов вычислений и сравнение времени работы алгоритмов. Также приведено сравнение времени работы программы для GPU и похожей программы для кластера из многих узлов.
Современные суперкомпьютеры востребованы в самых разных областях науки и техники. Однако их вычислительные ресурсы зачастую используются не в полной мере. Причина нередко кроется в низкой эффективности выполнения пользовательских приложений. Решить возникшую проблему весьма непросто, что связано как с чрезвычайной сложностью строения современных суперкомпьютеров, так и с недостатком теоретических знаний и практического опыта в создании высокоэффективных параллельных приложений у пользователей вычислительных систем. Более того, пользователи зачастую и не знают, что их приложения работают неэффективно. Поэтому важно, чтобы администраторы суперкомпьютеров могли постоянно контролировать и анализировать весь поток выполняющихся приложений. Для этих целей можно использовать различные существующие системы мониторинга и анализа производительности, однако подобные решения в большинстве своем либо не предоставляют достаточный функционал в части изучения производительности, либо не переносимы. В данной работе описывается прототип разрабатываемого программного комплекса, который предоставляет широкие возможности по сбору и автоматическому анализу данных о производительности приложений и при этом является переносимым.
Исследована проблема существования и единственности полилинейных продолжений некоторых дискретных функций. Доказано, что для любой булевой функции существует соответствующее полилинейное продолжение и оно единственно. Предложен алгоритм нахождения полилинейного продолжения булевой функции и доказана его корректность. На основе предложенного алгоритма найдены явные формы полилинейных продолжений сначала для булевой функции, а затем для произвольной функции, определенной на множестве вершин n-мерного единичного куба, произвольного куба и параллелепипеда, и в каждом конкретном случае доказана единственность соответствующего полилинейного продолжения.
Effective output from data centers are determined by many complementary factors. Often, attention is paid to only a few, at first glance, the most significant of them. For example, this is the efficiency of the scheduler, the efficiency of resource utilization by user tasks. At the same time, a more general view of the problem is often missed: the level at which the interconnection of work processes in the HPC center is determined, the organization of effective work as a whole. missions at this stage can negate any subtle optimizations at a low level. This paper provides a scheme for describing workflows in the supercomputer center and analyzes the experience of large HPC facilities in identifying the bottlenecks in this chain. A software implementation option that gives the possibility of optimizing the organization of work at all stages is also proposed in the form of a support system for the functioning of the HPC site.
Издательство
- Издательство
- МГУ
- Регион
- Россия, Москва
- Почтовый адрес
- оссийская Федерация, 119991, Москва, Ленинские горы, д. 1
- Юр. адрес
- оссийская Федерация, 119991, Москва, Ленинские горы, д. 1
- ФИО
- Садовничий Виктор Антонович (РЕКТОР)
- E-mail адрес
- info@rector.msu.ru
- Контактный телефон
- +7 (495) 9391000
- Сайт
- https://msu.ru/