Отчет о научно-исследовательской работе

Вид материалаОтчет
Подобный материал:
1   ...   14   15   16   17   18   19   20   21   22

1.7.Переменные окружения, используемые PACX-MPI


LOCALDOMAIN

Имя домена. Используется в случае, если PACX-MPI не может самостоятельно определить имя домена

PACX_DEBUG_NODE

Определяет, на каких узлаз нужно выводить отладочную информацию. Если этой переменной дано значение -1, то отладочная информация будет выводиться на всех узлах.

Для того, чтобы информация выводилась на некоторых узлах, их номера нужно перечислить через запятую («,»).

Например: PACX_DEBUG_NODE=1,2

PACX_TRACE

Получить информацию о трассировках функций

PACX_TCP_BUFFER

Размер TCP буфера PACX-MPI

PACX_HOSTFILE

Имя файла, который нужно использовать вместо .hostfile

PACX_NETFILE

Имя файла, который нужно использовать вместо .netfile

PACX_PATH

Путь к директории, в которой находятся файлы .hostfile и .netfile

2.Схема использования PACX в составе испытательного стенда T-GRID

2.1.Сопряжение с MPI


Как уже упоминалось, PACX-MPI не требует поддержки со стороны конкретной реализации MPI. Он (PACX-MPI) способен работать совместно с большинством реализаций MPI.

Достигается это таким образом, что библиотека PACX-MPI статически подключается к MPI-приложению, при этом во время компиляции происходит подмена файла-заголовка mpi.h от MPI на mpi.h от PACX-MPI. mpi.h от PACX-MPI включает mpi.h от MPI следующим образом:

#include “MPI_INC_DIR/mpi.h”. Таким образом интерфейс от используемого MPI полностью сохраняется в PACX-MPI. А кроме этого подключения в mpi.h от PACX-MPI включаются дополнительные интерфейсы, реализованные в скомпилированных библиотеках PACX-MPI.

Таким образом, поддержка стандарта MPI осушествляется через установленную реализацию MPI. Управление коммуникациями между узлами метакомьютера реализовано в скомпилированных библиотеках PACX-MPI; при компляции MPI-приложения с PACX-MPI просто происходит подключение дополнительного кода от PACX-MPI, который реализует управление.

Так как подключенный код PACX-MPI не зависит от реализации MPI, то возможна такая схема использования: на одном узле-кластере PACX-приложение запускается с ScaMPI, а на другом – с LAM-MPI.

Так же, за счет такого решения, легко реализуется гетерогенность, т.е. возможность использования машин с разными платформами, разными MPI, в составе одного метакомпьютера.

Конечно, в этом случая приходится компилировать MPI-приложение отдельно на каждом узле.

Но, если в метакомьютере используются машины с одной архитектурой, то можно скомпилировать MPI-приложение только один раз и скопировать его на каждый узел.

Но, возникает проблема: если на большинстве машин метакомпьютера проинсталлирован один MPI, а на мощных кластерах используется другой MPI, который использует высокоскоростную сеть, то как один раз скомпилировав MPI-приложение, далее использовать его везде с разными реализациями MPI? Решением данной проблемы является использование DMPI и подключаемых динамических библиотек-драйверов для различных реализаций MPI.

Проблема использования одного исполняемого файла для разных платформ еще пока не решена.

2.2.Сопряжение с T-системой


Сопряжение PACX с T-системой может осуществляться через DMPI или T-систему можно собрать статически с PACX и используемой реализаций MPI.

Рассмотрим оба варианта:

2.2.1Сопряжение с T-системой через DMPI


В этом случае нужно собрать несколько драйверов PACX-MPI для различных реализаций MPI.

В окончательной программной реализации этот способ еще пока не реализован.

Возможная причина: DMPI для T-системы еще полностью не отлажен.

2.2.2Сопряжение с T-системой статически


Для данного способа нужно собрать T-систему с PACX-MPI и конкретной реализацией MPI.

Приложение 6

Т-система с открытой архитектурой ( OpenTS ): Краткое введение для пользователей


Т-система — оригинальная российская разработка, которая была начата в Институте программных систем РАН в начале 80-х годов.

В последние годы Т-система развивается в рамках суперкомпьютерной программы «СКИФ» Союзного государства Сегодня Т-система претерпевает переход из категории экспериментальных в разряд промышленных систем.

Т-система была успешно опробована как на достаточно широком круге задач, так и на вычислительных установках различного масштаба: от многопроцессорных PC до вычислительных комплексов с различной архитектурой и разной мощности (различные многопроцессорные Linux/Intel-кластеры, терафлопная российская установка МВС-1000М).

Как нам кажется, эта технология обладает значительным потенциалом для дальнейшего развития и расширения области применения.