Параллельные вычисления. Баканов В.М. - 106 стр.

UptoLike

Составители: 

- 106 -
ровании микросхем, для поддержки финансовой деятельности, обработки
данных геофизических исследований при морской нефтедобыче и др.
Низкоуровневая модель передачи сообщений (MPI). Модели параллелизма:
по данным (HPF), по данным и по управлению (DVM), гибридная модель
параллелизма по управлению с передачей сообщений (OpenMP+MPI), сис-
тема НОРМА.
4.3 Автоматизация распараллеливания алгоритмов
4.3.1 Распараллеливающие компиляторы
Желание автоматизировать процесс перевода
в параллельный вариант ог-
ромного количества наработанного (и вновь разрабатываемого) программно-
го обеспечения является более чем естественным.
Разработка полностью автоматически распараллеливающего компилято-
ра, казалось, может снять все проблемы программиста. К сожалению, реаль-
ные разработки в этом направлении не впечатляют своей эффективностью.
Во-первых, априори невозможно создать такой компилятор универсальным
(
вследствие наличия значительного количества архитектур ЭВМ и систем
команд процессоров, при этом оптимизированный для одной системы ком-
пилятор окажется малоэффективным для другой). Во-вторых, (на основе
опыта уже разработанных систем параллельного программирования) пред-
ставляется проблематичной сама идея полностью автоматического распа-
раллеливания (подобная система должна обладать существенными чертами
искусственного интеллекта и, скорее
всего, будет громоздкой и трудно на-
страиваемой). Весьма проблематична (хотя на сегодняшний день уже скорее
чисто технически) разработка единой схемы распараллеливания произволь-
ного алгоритма с отображением на архитектуру реальной ЭВМ (именно здесь
как нельзя более полезны приемы классификации и описания архитектур).
Именно поэтому обычно ограничиваются задачей синтаксического анализа
исходно-параллельного
текста с целью выявления потенциального паралле-
лизма и генерацией распараллеленного исходного текста (часто в стиле MPI),
компиляция этой программы осуществляется машинно-зависимым компиля-
тором с поддержкой библиотеки MPI (частично такие системы описаны в
подразделе 3.2).
Например, в состав полнофункционального пакета Forge90 (APR - Applied
Parallel Research, Inc.,
http://www.infomall.org/apri//index.html, [email protected]
)
входят препроцессоры
dpf, spf, xhpf
(для систем с распределенной памятью,
общей памятью и для использования программирования в HPF-стиле соот-
ветственно), позволяющие на основе исходного текста последовательного
алгоритма сформировать текст, уже распараллеленный в технологии PVM на
Fortran’77; подобные пакеты объемны и дорогостоящи.
                                        - 106 -


ровании микросхем, для поддержки финансовой деятельности, обработки
данных геофизических исследований при морской нефтедобыче и др.
  Низкоуровневая модель передачи сообщений (MPI). Модели параллелизма:
по данным (HPF), по данным и по управлению (DVM), гибридная модель
параллелизма по управлению с передачей сообщений (OpenMP+MPI), сис-
тема НОРМА.

  4.3 Автоматизация распараллеливания алгоритмов

  4.3.1 Распараллеливающие компиляторы

  Желание автоматизировать процесс перевода в параллельный вариант ог-
ромного количества наработанного (и вновь разрабатываемого) программно-
го обеспечения является более чем естественным.
  Разработка полностью автоматически распараллеливающего компилято-
ра, казалось, может снять все проблемы программиста. К сожалению, реаль-
ные разработки в этом направлении не впечатляют своей эффективностью.
Во-первых, априори невозможно создать такой компилятор универсальным
(вследствие наличия значительного количества архитектур ЭВМ и систем
команд процессоров, при этом оптимизированный для одной системы ком-
пилятор окажется малоэффективным для другой). Во-вторых, (на основе
опыта уже разработанных систем параллельного программирования) пред-
ставляется проблематичной сама идея полностью автоматического распа-
раллеливания (подобная система должна обладать существенными чертами
искусственного интеллекта и, скорее всего, будет громоздкой и трудно на-
страиваемой). Весьма проблематична (хотя на сегодняшний день уже скорее
чисто технически) разработка единой схемы распараллеливания произволь-
ного алгоритма с отображением на архитектуру реальной ЭВМ (именно здесь
как нельзя более полезны приемы классификации и описания архитектур).
  Именно поэтому обычно ограничиваются задачей синтаксического анализа
исходно-параллельного текста с целью выявления потенциального паралле-
лизма и генерацией распараллеленного исходного текста (часто в стиле MPI),
компиляция этой программы осуществляется машинно-зависимым компиля-
тором с поддержкой библиотеки MPI (частично такие системы описаны в
подразделе 3.2).
  Например, в состав полнофункционального пакета Forge90 (APR - Applied
Parallel Research, Inc., http://www.infomall.org/apri//index.html, [email protected])
входят препроцессоры dpf, spf, xhpf (для систем с распределенной памятью,
общей памятью и для использования программирования в HPF-стиле соот-
ветственно), позволяющие на основе исходного текста последовательного
алгоритма сформировать текст, уже распараллеленный в технологии PVM на
Fortran’77; подобные пакеты объемны и дорогостоящи.