Новости
-
Конференция "Суперкомпьютерные дни в России 2022" проходила 26 - 27 Сентября 2022 г. по адресу Россия, Москва, Московский Государственный Университет им М.В. Ломоносова.
Доклады
Автоматизированное распараллеливание программ для гетерогенных кластеров с помощью системы SAPFOR
Автоматизированное распараллеливание программ для гетерогенных кластеров с помощью системы SAPFOR
В статье будет рассмотрен подход к автоматизированному распараллеливанию программ для кластеров с помощью системы SAPFOR (System FOR Automated Parallelization). Главной целью системы SAPFOR является автоматизация процесса отображения последовательных программ на параллельные архитектуры в модели DVMH, которая является моделью программирования, основанной на директивах. Помимо этого система SAPFOR позволяет выполнять автоматически некоторый класс преобразований над исходным кодом программы по запросу пользователя через графический интерфейс. На определенных классах задач пользователь системы SAPFOR может рассчитывать на полностью автоматическое распараллеливание, если программа была написана или приведена к потенциально параллельному виду. Также в статье будут описаны подходы к построению схем распределения данных и вычислений на распределенную память в модели DVMH. Эффективность полученных алгоритмов построения схем распределения данных и вычислений будет продемонстрирована на примере некоторых приложений из пакета NAS Parallel Benchmarks.
Докладчик: Н.А. Катаев.
-
Конференция "Иванниковские чтения - 2022 (Ivannikov Memorial Workshop)" проходила 23 - 24 Сентября 2022 г. по адресу Россия, Казань, Международный выставочный центр «Казань Экспо»..
Доклады
Data distribution and parallel code generation for heterogenious computational clusters
Data distribution and parallel code generation for heterogenious computational clusters
We present new techniques for compilation of sequential programs for almost affine accesses in loop nests for distributed-memory parallel architectures. Our approach is implemented as a source-to-source automatic parallelizing compiler that expresses parallelism with the DVMH directive-based programming model. Compared to all previous approaches ours addresses all three main sub-problems of the problem of distributed memory parallelization: data and computation distribution and communication optimization. Parallelization of sequential programs with structured grid computations is considered. In this paper, we use the NAS Parallel Benchmarks to evaluate the performance of generated programs and provide experimental results on up to 9 nodes of a computational cluster with two 8-core processors in a node.
В данной статей рассматривается новый подход к компиляции последовательных программ для их последующего выполнения на вычислительных системах с распределенной памятью. Предложенный подход был реализован в виде автоматически распараллеливающего компилятора для программ на языках Си и Фортран. Для описания параллелизма, обнаруженного в программе, используется директивная модель параллельного программирования DVMH. Таким образом, реализованный компилятор выполняет преобразование программ на уровне исходного кода, добавляя в них высокоуровневые спецификации параллелизма в терминах DVMH модели. Распараллеливание основано на анализе гнезд циклов программы, содержащих обращения к многомерным массивам, для которых большинство индексных выражений линейно зависит от индуктивных переменных циклов гнезда. Основной областью применения предложенного подхода являются программы научно-технических расчетов, реализующие вычисления на структурированных сетках. В отличие от подходов к распараллеливанию программ, предложенных в других работах, наш подход охватывает решение всех трех основных задач, возникающих при распараллеливании для систем с распределенной памятью: распределение данных, распределение вычислений и оптимизация коммуникационных обменов между узлами вычислительной системы. Для оценки эффективности получаемых параллельных программ, мы использовали некоторых приложения из набора NAS Parallel Benchmarks. В статье приведены результаты экспериментов, в которых были задействованы до 9 узлов вычислительного кластера, каждый из которых содержал два 8-ядерных процессора.
Докладчик: Н.А. Катаев.
-
Конференция "Национальный Суперкомпьютерный Форум (НСКФ-2021)" проходила 30 Ноября - 3 Декабря 2021 г. по адресу Россия, Переславль-Залесский, ИПС им. А.К. Айламазяна РАН.
Доклады
Статический анализ Си программ в системе SAPFOR для их распараллеливания
Статический анализ Си программ в системе SAPFOR для их распараллеливания
Применение системы SAPFOR для распараллеливания некоторых приложений из пакета NAS Parallel Benchmarks выявило ограничения реализованных в системе SAPFOR техник анализа программ. В докладе будут рассмотрены новые техники анализа программ, реализованные в SAPFOR и позволяющие справиться с выявленными ограничениями. Важной особенностью является то, что предложенные техники опираются на возможность системы SAPFOR модифицировать внутреннее представление программы в виде LLVM IR в процессе ее анализа для уточнения свойств исходной непреобразованной программы. В докладе будут рас-смотрены: (1) подход к анализу зависимостей по данным в много-модульных программах за счет выборочной подстановки функций в точках их вызова; (2) подход к определению редукционных операций в циклах программы, для случаев, когда имеющихся возможностей LLVM по их анализу оказывается недостаточно; (3) подход к определению приватизируемых массивов в циклах про-граммы.
Докладчик: Н.А. Катаев.
-
Конференция "Суперкомпьютерные дни в России 2021" проходила 27 - 28 Сентября 2021 г. по адресу Россия, Москва, гостиница Holiday Inn Moscow - Sokolniki.
Доклады
Дополнительное распараллеливание MPI программ с помощью системы SAPFOR
Дополнительное распараллеливание MPI программ с помощью системы SAPFOR
Системы SAPFOR и DVM были спроектированы и предназначены для упрощения разработки параллельных программ научно-технических расчетов. Главной целью системы SAPFOR является автоматизация процесса отображения последовательных программ на параллельные архитектуры в модели DVMH. В некоторых случаях пользователь системы SAPFOR может рассчитывать на полностью автоматическое распараллеливание, если программа была написана или приведена к потенциально параллельному виду. DVMH модель представляет собой расширение стандартных языков Си и Фортран спецификациями параллелизма, которые оформлены в виде директив и не видимы стандартным компиляторам. В статье будет рассмотрено автоматизированное дополнительное распараллеливание существующих MPI программ с помощью системы SAPFOR, где, в свою очередь, будут использованы новые возможности DVMH модели по распараллеливанию циклов в MPI программе внутри узла. Данный подход позволяет существенно снизить трудоемкость распараллеливания MPI программ на графические ускорители и многоядерные процессоры, сохранив при этом удобство сопровождения уже написанной программы. Данная возможность в системе SAPFOR была реализована для языков Фортран и Си. Эффективность данного подхода показана на примере некоторых приложений из пакета NAS Parallel Benchmarks.
Работа выполнена при поддержке Российского фонда фундаментальных исследований, проекты 19-07-00889, 19-07-01101 и 20-01-00631.
Докладчик: А.С. Колганов.
-
Конференция "16th International Conference on Parallel Computing Technologies" проходила 13 - 18 Сентября 2021 г. по адресу Russia, Калининград, Балтийский федеральный университет.
Доклады
Additional Parallelization of Existing MPI Programs Using SAPFOR
Additional Parallelization of Existing MPI Programs Using SAPFOR
The SAPFOR and DVM systems were primary designed to simplify the development of parallel programs of scientific-technical calculations. SAPFOR is a software development suite that aims to produce a parallel version of a sequential program in a semi-automatic way. Fully automatic parallelization is also possible if the program is well-formed and satisfies certain requirements. SAPFOR uses the DVMH directive-based programming model to expose parallelism in the code. The DVMH model introduces CDVMH and Fortran-DVMH (FDVMH) programming languages which extend standard C and Fortran languages by parallelism specifications. We present MPI-aware extension of the SAPFOR system that exploits opportunities provided by the new features of the DVMH model to extend existing MPI programs with intra-node parallelism. In that way, our approach reduces the cost of parallel program maintainability and allows the MPI program to utilize accelerators and multi-core processors. SAPFOR extension has been implemented for both Fortran and C programming languages. In this paper, we use the NAS Parallel Benchmarks to evaluate the performance of generated programs.
Докладчик: Н.А. Катаев.