Отладка DVM-программ

Отладка DVM-программ

Автор: Удовиченко, Роман Всеволодович

Шифр специальности: 05.13.11

Научная степень: Кандидатская

Год защиты: 2000

Место защиты: Москва

Количество страниц: 148 с.

Артикул: 2769754

Автор: Удовиченко, Роман Всеволодович

Стоимость: 250 руб.

Отладка DVM-программ  Отладка DVM-программ 

Содержание
ВВЕДЕНИЕ.
ГЛАВА 1. РАЗРАБОТКА ПРОГРАММ ДЛЯ ПАРАЛЛЕЛЬНЫХ
ВЫЧИСЛИТЕЛЬНЫХ СИСТЕМ.
1.1. Интерфейс передачи сообщений I
1.2. Средства программирования высокого уровня.
1.2.1. Автоматические распараллеливающие компиляторы.
1.2.2. Языки с параллелизмом по данным.
1.2.3. Языки с параллелизмом по данным и вычислениям.
1.2.4. Общие проблемы и особенности отладки
1.3. Обзор существующих систем отладки.
1.3.1. Отладка параллельных программ с использованием среды МАГ.
1.3.2. Сравнительный отладчик .
ГЛАВА 2. МЕТОДЫ ОТЛАДКИ VПРОГРАММ.
2.1. Обзор V модели
2.2. Классы возможных ошибок и методы их обнаружения.
2.3. Достоинсгва предложенных методов отладки
ГЛАВА 3. МЕТОД ДИНАМИЧЕСКОГО КОНТРОЛЯ VУКАЗАНИЙ
3.1. Контроль инициализации переменных и элементов массивов
3.2. Контроль приватных и неизменяемых переменных
3.3. Контроль редукционных переменных
3.4. Контроль доступа к элементам распределенного массива
3.5. Контроль использования буфера удаленного доступа
3.6. Ограничения метода динамического контроля.
ГЛАВА 4. МЕТОД СРАВНЕНИЯ РЕЗУЛЬТАТОВ ВЫПОЛНЕНИЯ
4.1. Накопление трассировки
4.2. Сравнение результатов вычислений
4.3. Контроль редукционных операций
4.4. ФОРМАТЫ входных и выходных файлов
4.4.1. Конфигурациопн ы й файл трассировки.
4.4.2. Файл трассировки
ГЛАВА 5. РЕАЛИЗАЦИЯ ДИНАМИЧЕСКОГО ОТЛАДЧИКА
5.1. Состав Vотладчика.
5.2. РОТОТИПЫ отладочных функций
5.3. Реализация базовых модулей.
5.3.1. Таблица.
5.3.2. Xiтабл ица.
5.3.3. Таблица переменных
5.3.4. Модуль выдачи диагностики.
5.4. Реализация системы динамического контроля Vуказаиий
5.4.1. Режим работы динамического контроля с таблицей переменных
5.4.2. Основные функции модуля динамического контроля
5.4.3. Параметры системы динамического контроля
5.5. Реализация системы сравнения результатов выполнения.
5.5.1. Основные структуры системы сравнения результатов выполнения .
5.5.2. Модуль записи трассировки
5.5. 3. Модуль накоплен ия трассировки
5.5.4. Модуль чтен ия трассировки.
5.5.5. Модуль сравнения трассировки
5.5.6. Модуль обработки редукции
5.5.7. Параметры системы сравнения результатов выполнения.
ЗАКЛЮЧЕНИЕ
СПИСОК ЛИТЕРАТУРЫ


Основные достоинства сетей - возможность постепенного расширения и модернизации. Сети не могут пока соревноваться по скорости вычисления с суперкомпьютерами, но они на одии-два порядка дешевле, их можно использовать там, где объемы расчетов велики, а суперкомпьютеры экономически не оправданы. Главным препятствием к внедрению практически всех параллельных архитектур является отсутствие параллельных программ. У большинства программ, разработанных для последовательных компьютеров, имеется огромный недостаток -большой объем кода, принципиально не допускающий параллельного исполнения. Его нельзя преодолеть за счет усовершенствования техники компиляции. В результате, последовательные вычислительные алгоритмы приходится заменять параллельными [ 1J. Практически на всех параллельных системах имелись свои собственные библиотеки передачи сообщений. В простейшем случае они предусматривали передачу и прием отдельных пакетов между соседними процессорами. Более сложные поддерживали передачу сообщений произвольной длины, маршрутизацию сообщений и аппарат тегов, который позволяет принимающей стороне самой решать, в какой последовательности обрабатывать поступающие сообщения. Некоторые библиотеки допускали динамическое порождение и уничтожение процессов. За последние годы в деле создания программного обеспечения для систем с распределенной памятью наметился серьезный npoipecc. Самым крупным достижением была стандартизация интерфейса передачи сообщений MPI (message passing interface) []. Набор функций этого интерфейса вобрал в себя лучшие черты своих предшественников р4 [] и PVM [,]. Во-первых, MPI поддерживает несколько режимов передачи данных, важнейшие из которых: синхронная передача, не требующая выделения промежуточных буферов для данных и обеспечивающая надежную передачу данных сколь угодно большого размера, и передача с буферизацией, при которой посылающий сообщение процесс не ждет начала приема, что позволяет эффективно передавать короткие сообщения. Во-вторых, MPI позволяет передавать данные не только от одного процесса к другому, но и поддерживает коллективные операции: широковещательную передачу (broadcasting), разборку-сборку (scatter и gather), операции редукции. В-третьих, MPI предусматривает гетерогенные вычисления. Вычислительная система может включать разные процессоры, в том числе имеющие различные представления данных. Синтаксис MPI облегчает создание приложений в модели SPMD (Single Program Multiple Data) - одна программа работает в разных процессах со своими данными. Такой синтаксис вызовов делает SPMD-программы существенно компактнее, хотя и труднее для понимания. Основное отличие стандарта MPI от его предшественников - понятие коммуникатора, который используется для локализации (в пространстве и во времени) всех операций синхронизации и передачи сообщений. С коммуникатором связывается группа процессов. В частности, все коллективные операции вызываются одновременно на всех процессах, входящих в эту группу. Сейчас библиотеки MPI реализованы практически для всех современных суперкомпьютеров. Поддержка гетерогенных вычислений. Передача типизированных сообщений. Богатый набор массовых операций. Совместимость с многопоточностью. Несмотря на то, что MPI представляет собой значительный шаг вперед по сравнению с предшествующим поколением библиотек передачи сообщений, программировать на MPI достаточно сложно и, поэтому, в настоящее время немного существует прикладных пакетов, построенных непосредственно над MPI. Причину этого следует искать не в изъянах стандарта, а в самой парадигме передачи сообщений. Его можно рассматривать как уровень ассемблера для параллельных программ. Типичные ошибки, связанные с недетерминированностью программ, основанных на парадигме передачи сообщений, часто никак не проявляются на относительно небольших системах, на которых идет отладка, но приводят к загадочным сбоям при запуске на системах, включающих множество узлов. В итоге основные усилия тратятся не па поиск наиболее быстрого алгоритма, а па отыскание элементарных ошибок.

Рекомендуемые диссертации данного раздела

28.06.2016

+ 100 бесплатных диссертаций

Дорогие друзья, в раздел "Бесплатные диссертации" добавлено 100 новых диссертаций. Желаем новых научных ...

15.02.2015

Добавлено 41611 диссертаций РГБ

В каталог сайта http://new-disser.ru добавлено новые диссертации РГБ 2013-2014 года. Желаем новых научных ...


Все новости

Время генерации: 0.207, запросов: 244