Параллельные вычисления. Баканов В.М. - 49 стр.

UptoLike

Составители: 

- 49 -
Одним из первых кластерных проектов явился проект BEOWULF
(
http://www.beowulf.org
, название дан
о
в честь героя скандинавской с
а
ги). Проект
БЕОВУЛЬФбыл зал
о
жен в созданном на основе принадлежащей NASA организации
GSFC (Goddard Space Flight Center,
http://www.gsfc.nasa.gov
) исследовательском
центре CESDIS (Center of Excellence in Space Data and Information Sci-
ences) в 1994 г. и стартов
а
л сб
о
ркой в GSFC 16-узлового кластера (на
процессорах 486DX4/100 MHz, 16 Mb памяти, 3 сетевых адаптера на
каждом узле и 3 параллельных 10 Mbit Ethernet-кабелей); вычисли-
тельная система предназначалась для проведения работ по проекту
ESS (Earth and Space Sciences Project,
http://sdcd.gsfc.nasa.gov/ESS/overview.html
).
Позднее в подразделениях NASA были собраны другие модели
BEOWULF-под
о
бных кластеров: напр., theHIVE (Highly-parallel
Integrated Virtual Environment) из 64 двухпроцессорных (Pentium
Pro/200 MHz, 4 Gb памяти и 5 коммутаторов Fast Ethernet в каждом)
узлов (общая стоимость 210 тыс. $US). Именно в рамках проекта Beowulf были разра-
ботаны драйверы для реализации режима Channel Bonding (см. ниже).
Рисунок 12 — Укрупненная схема вычислительного кластера
Беовульф’ – типичный образец многопроцессорной системы MIMD
(Multiple Instruction
Multiple Data), при этом одновременно (и относительно
независимо друг от друга) выполняются несколько программных ветвей, в
определенные промежутки времени обменивающиеся данными. Многие по-
                                       - 49 -

     Одним из первых кластерных проектов явился проект BEOWULF
  (http://www.beowulf.org, название дано в честь героя скандинавской саги). Проект
  ‘БЕОВУЛЬФ’ был заложен в созданном на основе принадлежащей NASA организации
  GSFC (Goddard Space Flight Center, http://www.gsfc.nasa.gov) исследовательском
  центре CESDIS (Center of Excellence in Space Data and Information Sci-
  ences) в 1994 г. и стартовал сборкой в GSFC 16-узлового кластера (на
  процессорах 486DX4/100 MHz, 16 Mb памяти, 3 сетевых адаптера на
  каждом узле и 3 параллельных 10 Mbit Ethernet-кабелей); вычисли-
  тельная система предназначалась для проведения работ по проекту
  ESS         (Earth       and       Space      Sciences        Project,
  http://sdcd.gsfc.nasa.gov/ESS/overview.html).
     Позднее в подразделениях NASA были собраны другие модели
  BEOWULF-подобных кластеров: напр., theHIVE (Highly-parallel
  Integrated Virtual Environment) из 64 двухпроцессорных (Pentium
  Pro/200 MHz, 4 Gb памяти и 5 коммутаторов Fast Ethernet в каждом)
  узлов (общая стоимость 210 тыс. $US). Именно в рамках проекта Beowulf были разра-
  ботаны драйверы для реализации режима Channel Bonding (см. ниже).




             Рисунок 12 — Укрупненная схема вычислительного кластера

  ‘Беовульф’ – типичный образец многопроцессорной системы MIMD
(Multiple Instruction − Multiple Data), при этом одновременно (и относительно
независимо друг от друга) выполняются несколько программных ветвей, в
определенные промежутки времени обменивающиеся данными. Многие по-