Высокопроизводительные вычисления на кластерах. Беликов Д.А - 45 стр.

UptoLike

45
3 ПАРАЛЛЕЛЬНОЕ ПРОГРАММИРОВАНИЕ С
ИСПОЛЬЗОВАНИЕМ СТАНДАРТА MPI
Наиболее общим подходом при создании параллельных про-
грамм в настоящее время является применение библиотеки переда-
чи сообщений, где процессы используют обращения к библиотеке
MPI (Message Passing Interface), чтобы обмениваться сообщениями
(информацией) с другими процессами. Механизм передачи сообще-
ний позволяет процессам, запущенным на многопроцессорной вы-
числительной системе, совместно решать большие задачи.
MPI это стандарт передачи сообщений, который разрабаты-
вался группой 60 человек из 40 организаций США и Европы. Пер-
вый вариант стандарта MPI 1.0 был опубликован в 1994 г. Боль-
шинство современных реализаций соответствуют стандарту MPI 1.1
(опубликован в 1995 г.). В 1997 г. был опубликован стандарт MPI
2.0, однако он не получил широкого распространения. MPI приго-
ден для различных платформ, начиная с массивно-параллельных
систем (например, IBM SP2, Cray T3D, Intel Paragon) и заканчивая
сетями рабочих станций (Sun4, Dec Alpha). Основной целью, пре-
следуемой при создании MPI, было разработать практический, пе-
реносимый, эффективный и удобный стандарт для передачи сооб-
щений между процессами.
Стандарт MPI включает 129 функций для:
- инициализации и закрытия параллельной части приложения;
- приема и передачи сообщений между отдельными процессами;
- осуществления коллективного взаимодействия процессов;
- работы с группами процессов и коммуникаторами;
- определения производных (составных) типов данных;
- создания виртуальных топологий для обеспечения более
простого взаимодействия процессов.
Однако начинающему пользователю при написании своих па-
раллельных программ можно обойтись их малым подмножеством
(например, минимальношестью).
3.1 Основные понятия MPI
К базовым понятиям MPI относятся процесс, группа процессов и
коммуникатор. Процесс это исполнение программы одним про-
цессорным элементом, на котором загружен MPI. Процессы объе-