Введение в информатику процессов первичной переработки нефти. Новиков А.А - 220 стр.

UptoLike

Составители: 

ют решать широкий круг стандартных подзадач с использованием возможностей
параллельной обработки. Если обращение к таким подзадачам составляет большую
часть вычислительных операций программы, то использование такой параллельной
библиотеки позволит получить параллельную программу практически без написа-
ния собственного параллельного кода. Примером такой библиотеки является
SCALAPACK. Информацию о других параллельных библиотеках и программах, реа-
лизованных с помощью MPI, можно найти по адресу http://www-
unix.mcs.anl.gov/mpi/libraries.html.
4. Создавать собственные параллельные программы. Это наиболее трудоемкий,
но и наиболее универсальный способ. Существует два основных варианта: встав-
лять параллельные конструкции в имеющиеся параллельные программы или созда-
вать «с нуля» параллельную программу.
Работа параллельных программ на кластере
Параллельные программы на вычислительном кластере работают в модели пе-
редачи сообщений (message passing). Это значит, что программа состоит из множе-
ства процессов, каждый из которых работает на своем процессоре и имеет свое ад-
ресное пространство. Причем непосредственный доступ к памяти другого процесса
невозможен, а обмен данными между процессами происходит с помощью операций
приема и посылки сообщений. То есть процесс, который должен получить данные,
вызывает операцию Receive (принять сообщение), и указывает, от какого именно
процесса он должен получить данные, а процесс, который должен передать данные
другому, вызывает операцию Send (послать сообщение) и указывает, какому именно
процессу нужно передать эти данные. Эта модель реализована с помощью стан-
дартного интерфейса MPI. Существует несколько реализаций MPI, в том числе бес-
платные и коммерческие, переносимые и ориентированные на конкретную комму-
никационную сеть.
Как правило, MPI-программы построены по модели SPMD (одна программа
много данных), то есть для всех процессов имеется только один код программы, а
различные процессы хранят различные данные и выполняют свои действия в зави-
симости от порядкового номера процесса.
Примеры простейших работающих MPI-программ доступны в составе пакета
MPICH, свободно распространяемой реализации MPI. Для пользователей кластера
ТПУ простейшие примеры MPI-программ на Си и Фортране доступны в директории
/home/examples/mpi.
Отладка параллельных программ на персональном компьютере
Разработка MPI-программ и проверка функциональности возможна на обычном
ПК. Можно запускать несколько MPI-процессов на однопроцессорном компьютере
и таким образом проверять работоспособность программы. Желательно, чтобы это
был ПК с ОС Linux, где можно установить пакет MPICH. Это возможно и на компь-
ютере с Windows, но более затруднительно.
219