Диалоговая оболочка отладчика MPI-программ (49674)

Посмотреть архив целиком

Содержание


1. Введение

2. Модели параллельного программирования

2.1 Модель передачи сообщений MPI

2.2 Другие модели

3. Отладка параллельных программ

3.1 Обзор методик отладки

3.2 Обзор существующих средств отладки

3.3.1 LockInt (Sun)

3.3.2 MAD EMU и ATTEMPT (Johannes Kepler University Linz)

3.3.3 Total View (Etnus LLC), Prism(Sun), p2d2(NAS Ames), Ladebug(Compaq), GDB(GNU), DBX(Sun)

3.3.4 Assure(Intel), DVM debugger(KIAM RAS), UMPIRE (LLNL)

3.3.5 DejaVu (IBM)

3.3.6 Guard( Monash University ), DVM debugger(KIAM RAS), NASA/Ames support for debugging automatically parallelized programs

3.3.7 HOWCOME demonstrator, DD.py ( Saarland University )

4. Пользовательский интерфейс

4.1 Создание интерфейса

4.2 Современные подходы к созданию пользовательского интерфейса

5. Диалоговая оболочка отладчика MPI-программ.

5.1 Постановка задачи

5.2 Общая схема использования

5.3 Входная информация

5.4 Основные объекты визуализации

5.5 Основные функции визуализатора

5.6 Общая схема визуализации

5.7 Окно состояния задачи (Task state)

5.8 Окно обобщенных ошибок (Error location)

5.9 Окно топологии процессоров (Topology control)

5.10 Окно конкретных ошибок (Errors list)

5.11 Окно событий (Event line)

5.12 Окно просмотра стека и исходных текстов (Text control)

5.13 Окно просмотра трасс (Trace control)

Заключение

Литература


  1. Введение


Существуют сверхсложные вычислительные задачи, для решения которых требуется применение суперкомпьютеров. Такие задачи называют grand challenges.

Grand challenges - это фундаментальные научные или инженерные задачи с широкой областью применения, эффективное решение которых возможно только с использованием мощных (суперкомпьютерных) вычислительных ресурсов [1].

Вот лишь некоторые области, где возникают задачи подобного рода:

  • Предсказания погоды, климата и глобальных изменений в атмосфере

  • Науки о материалах

  • Построение полупроводниковых приборов

  • Сверхпроводимость

  • Структурная биология

  • Разработка фармацевтических препаратов

  • Генетика человека

  • Квантовая хромодинамика

  • Астрономия

  • Транспортные задачи

  • Гидро- и газодинамика

  • Управляемый термоядерный синтез

  • Эффективность систем сгорания топлива

  • Разведка нефти и газа

  • Вычислительные задачи наук о мировом океане

  • Распознавание и синтез речи

  • Распознавание изображений

Эффективное использование ресурсов суперкомпьютеров возможно только при распараллеливании вычислений. Параллельное программирование применяется для решения задач такого рода – предсказание метеоусловий, задач структурной биологии и генетики человека, задач астрономии, гидро- и газодинамики и многих других. Программист должен оптимально распределить данные и вычисления, чтобы добиться максимальной эффективности решения задачи на суперкомпьютерах с распределенной памятью.

Очень часто требуется повысить эффективность уже написанной последовательной программы. Это связано с тем, что накоплен огромный объем последовательных программ, написанных для решения прикладных задач. Конечно, можно попытаться использовать для ее выполнения более мощные аппаратные средства или реализовать более эффективные алгоритмы решения задачи. С другой стороны, можно использовать возможности параллельной обработки информации, т.е., другими словами, попытаться написать параллельную версию последовательной программы.

Параллельная программа не обязательно должна быть параллельной версией какой-либо последовательной программы, она также может реализовывать алгоритмы, которые невыгодно использовать на последовательных ЭВМ.

В любом случае, при написании параллельной программы сложность программирования резко возрастает, по сравнению с написанием последовательной программы. Возрастает соответственно и сложность отладки параллельной программы

  • Возрастает сложность программирования, а, следовательно, возрастает и вероятность совершения ошибок;

  • Появляются новые виды ошибок, специфичные для параллельных программ: взаимная блокировка (deadlock), условия гонок (race conditions), и другие.

Эти ошибки сложны для обнаружения и вызывают недетерминированное поведение программы.

Существует ряд различных походов к отладке параллельных программ. Однако при всех этих подходах важную роль играет диалоговая оболочка отладчика, обеспечивающая для пользователя удобный графический интерфейс. Особенно важным становится такой интерфейс при отладке программ на большом числе процессоров (десятки и сотни).

Данная работа посвящена созданию диалоговой оболочки разрабатываемого в ИПМ им. Келдыша РАН отладчика MPI-программ, который войдет в состав системы автоматизации разработки параллельных программ (DVM-системы). В ней рассмотрены основные подходы к параллельному программированию и к отладке параллельных программ. Приведены примеры уже существующих средств визуализации. Описаны теоретические и практические вопросы и задачи, связанные с разработкой средств визуализации. Приводится описание реализованного прототипа, результаты его тестирования и рекомендации к применению.



2. Модели параллельного программирования


Параллельные программы выполняются не многопроцессорных ЭВМ, поэтому необходимы механизмы для взаимодействия процессоров между собой. Существуют две основных модели такого взаимодействия: через общую память, либо посредством передачи сообщений. Обе это модели являются низкоуровневыми и поэтому крайне неудобны и непривычны для программистов, разрабатывающих параллельные программы.

Системы автоматического распараллеливания могут вполне успешно использоваться на мультипроцессорах, в то же время их использования на распределенных системах существенно затруднено.


2.1 Модель передачи сообщений MPI


В модели передачи сообщений параллельная программа выполняется на множестве процессов, каждый из которых имеет свое собственное адресное пространство. Обмен данными и синхронизация между процессами производится посредством передачи сообщений. В 1993 году был разработан стандарт передачи сообщений MPI (Message Passing Interface) [2]. Внедрение этого стандарта позволило увеличить возможность переносимости программ, разрабатываемых в рамках разных подходов, с использованием модели передачи сообщений.

Достоинства MPI:

  • Возможность использования в языках Фортран, Си, Си++;

  • Предоставление возможностей для совмещения обменов сообщениями и вычислений;

  • Предоставление режимов передачи сообщений, позволяющих избежать излишнего копирования информации для буферизации;

  • Широкий набор коллективных операций (например, широковещательная рассылка информации, сбор информации с разных процессоров), допускающих гораздо более эффективную реализацию, чем использование соответствующей последовательности пересылок точка-точка;

  • Широкий набор редукционных операций (например, суммирование расположенных на разных процессорах данных, или нахождение их максимальных или минимальных значений), не только упрощающих работу программиста, но и допускающих гораздо более эффективную реализацию, чем это может сделать прикладной программист, не имеющий информации о характеристиках коммуникационной системы;

  • Удобные средства именования адресатов сообщений, упрощающие разработку стандартных программ или разделение программы на функциональные блоки;

  • Возможность задания типа передаваемой информации, что позволяет обеспечить ее автоматическое преобразование в случае различий в представлении данных на разных узлах системы.

Тем не менее, интерфейс библиотеки MPI получился достаточно громоздким, не только для использования программистом, но и для реализации. В настоящее время не существует реализаций MPI, в которых в полной мере обеспечивается совмещение обменов с вычислениями.

В 1997 году появился стандарт MPI-2 [2]. На сегодняшний день существует, хотя и не полная, реализация стандарта MPI-2. Он предусматривает развитие в следующих направлениях:

  • Динамическое создание и уничтожение процессов;

  • Односторонние коммуникации и средства синхронизации для организации взаимодействия процессов через общую память (для эффективной работы на системах с непосредственным доступом процессоров к памяти других процессоров);

  • Параллельные операции ввода-вывода (для эффективного использования существующих возможностей параллельного доступа многих процессоров к различным дисковым устройствам).


2.2 Другие модели


Модель неструктурированных нитей. Программа представляется как совокупность нитей (threads), способных выполняться параллельно и имеющих общее адресное пространство. Имеющиеся средства синхронизации нитей позволяют организовывать доступ к общим ресурсам. Многие системы программирования поддерживают эту модель: Win32 threads, POSIX threads, Java threads.

Модель параллелизма по данным. Основным её представителем является язык HPF [3]. В этой модели программист самостоятельно распределяет данные последовательной программы по процессорам. Далее последовательная программа преобразуется компилятором в параллельную, выполняющуюся либо в модели передачи сообщений, либо в модели с общей памятью. При этом каждый процессор производит вычисления только над теми данными, которые на него распределены.


Случайные файлы

Файл
24680-1.rtf
163235.rtf
32567.rtf
3639.rtf
c1-07.doc




Чтобы не видеть здесь видео-рекламу достаточно стать зарегистрированным пользователем.
Чтобы не видеть никакую рекламу на сайте, нужно стать VIP-пользователем.
Это можно сделать совершенно бесплатно. Читайте подробности тут.