Исследование эффективности параллельных вычислений на кластере Московского энергетического института : технического университета

Исследование эффективности параллельных вычислений на кластере Московского энергетического института : технического университета

Автор: Лю Лян

Шифр специальности: 05.13.11

Научная степень: Кандидатская

Год защиты: 2007

Место защиты: Москва

Количество страниц: 186 с. ил.

Артикул: 3398565

Автор: Лю Лян

Стоимость: 250 руб.

Исследование эффективности параллельных вычислений на кластере Московского энергетического института : технического университета  Исследование эффективности параллельных вычислений на кластере Московского энергетического института : технического университета 

Оглавление
Аннотация работы.
Введение.
Глава 1. Обзор языков и сред параллельного программирования
Введение
1.1. Примитивы параллельного программирования.
1.2. Распараллеливание последовательных программ
1.3. Модели и средства описания параллелизма на процессном уровне
1.3.1. Сети Петри.
1.3.2. I, РУМиНити
1.3.2.1. I
1.3.2.2. V и его сравнение с I
1.3.2.3. Нити.
1.3.3. Другие проблемноориентированные языки и средства параллельного программирования
1.3.3.1. V
1.3.3.2. НРС. зо
1.3.3.3.
1.3.3.4. i
1.3.3.5.
1.3.3.6. .
1.3.3.7. ix
1.3.3.8.
1.4. Функциональное параллельное программирование.
1.5. Сравнение языков и сред параллельного программирования.
Заключение
Глава 2. Графсхемное потоковое параллельное программирование и
его сравнение с I.
Введение

2.1. Язык графсхемного потокового параллельного программирования .
2.1.1. Структура и интерпретация программы на ЯГСППП
2.1.2. Операционная семантика.
2.1.3. Примеры построения программ на ЯГСППП
2.2. Формальная операционная семантика ЯГСППП.
2.3. Сравнительный анализ выразительных возможностей I и
Заключение
Глава 3. Методы, технологии и инструментальные среды
параллельного программирования
Введение
3.1. Методы и технологии разработки параллельных программ.
3.2. Технологии и инструментальные среды параллельного
программирования
Заключение
Глава 4. Исследование эффективности выполнения параллельных программ на кластере МЭИ ТУ.
Ведение.
4.1. Кластерные ВС и их технические характеристики
4.2.0 кластере МЭИ ТУ и его характеристиках.
4.3. Критерии и основные параметры эффективности выполнения параллельных программ на кластерах
4.4. Стандартные смеси для проверки эффективности работы ВС
4.4.1. Известные тесты для кластеров
4.4.2. Исследование эффективности кластера МЭИ ТУ на тесте
4.4.2.1. Влияние на эффективность сложности задачи
4.4.2.2. Влияние на эффективность обмена страницами с дисковой памятью.
4.5. Исследование эффективности параллельной работы кластера
МЭИ ТУ на различных задачах
4.5.1. Перемножение матриц.6
4.5.2. Решение систем линейныхалгебраических уравнений.
4.5.2.1. МетодГаусса
4.5.2.2. Метод Якоби
Заключение
Заключение
Список литературы


По сравнению с понятием fork и join выполнение этих инструкций гораздо больше ограниченно; тем не менее, они обеспечивают большую прозрачность и безопасность по аналогии с процедурой в структурированном программировании (см. Рис. Задание параллелизма посредством parbegin . Преследуемая при этом цель - минимизация общего времени выполнения путем распределения вычислительной нагрузки среди доступных процессоров. Распараллеливание может быть автоматическим или ручным. Автоматическое распараллеливание осуществляется с помощью оптимизирующих распараллеливающих компиляторов, которые обычно преобразуют последовательный код в многопоточный и/или векторизованный. Автоматическое распараллеливание позволяет освободить программиста от утомительного и подверженного ошибкам ручного процесса распараллеливания. Распараллеливающий компилятор, автоматически определяющий параллельные инструкции в последовательных программах, является особенно привлекательным инструментальным программным средством, которое освобождает программистов от трудной задачи явного управленческого параллелизма в их программах. При автоматическом распараллеливании компилятор анализирует и изменяет структуру программы при минимальном вмешательстве программиста или вообще без него. Программно-управляемые структуры, на которых сфокусировано автоматическое распараллеливание, являются циклами, потому что обычно большая часть времени выполнения программы происходит в циклических участках. Компилятор автоматического распараллеливания пытается «разрезать» цикл таким образом, чтобы каждая его итерация могла одновременно выполняться на отдельном процессоре [, 2]. Одним из наиболее популярных интерфейсов «ручного» параллельного программирования, базирующийся на последовательных традиционных языках программирования и использовании специальных комментариев, в настоящее время является ОрепМР [, ]. ОрепМР не является новым языком, а расширяет существующие языки (C/C++, ФОРТРАН /). ОрепМР также применяется для параллельного программирования для кластеров, потому что многие современные кластеры создаются на узлах с общей памятью. ОрепМР использует модель параллельного выполнения /огк^'от (см. Все программы ОрепМР начинаются выполняться как единственный процесс, который является главной нитью. Входя в параллельную область, главная нить ветвится на группы нитей (одна из них остается главной нитью), и порожденные нити продолжают работать параллельно (см. На выходе параллельной конструкции требуется завершение выполнения порожденных нитей, после чего продолжает выполняться только главная нить. Рис. С самого начала многие попытки в разработке теории параллелизма были посвящены исследованию подходящих моделей для описания параллельных и распределённых процессов и формальному пониманию их семантик. Примерами таких моделей являются Сети Петри [,], Модели Ч. Хоара [, ] и Р. Мильнера [3]. Machine - параллельная виртуальная машина)), ориентированы в большей степени на системы с распределенной памятью и, как правило, являются неэффективными при использовании на компьютерах с общей памятью, например, SMP-машинах (Shared-Memory Processor/Symmetric Multiprocessors - симметричные мультипроцессорные системы). Нитевое параллельное программирование использует возможности более простой организации взаимодействия между процессами, протекающих с использованием общей памяти и разделяемых переменных. Реализация модели нитевого параллельного программирования осуществляется путем использования специальных API (Application Programming Interface - интерфейс прикладного программирования), таких как Posix-threads и Win-threads. Сети Петри были разработаны в -ом году в диссертации немецкого математика К. А. Петри [, ]. Сети Петри - это модель процессов, а не построение параллельных программ. Сети Петри легко моделируют процессы синхронизации, асинхронные события, параллельные операции и конфликты или разделение ресурсов. Сети Петри являются математической моделью, которая имеет широкое применение для описания поведения параллельных устройств и процессов и успешно используется для моделирования и анализа параллельных систем, коммуникационных протоколов, оценки выполнения и отказоустойчивых систем.

Рекомендуемые диссертации данного раздела

28.06.2016

+ 100 бесплатных диссертаций

Дорогие друзья, в раздел "Бесплатные диссертации" добавлено 100 новых диссертаций. Желаем новых научных ...

15.02.2015

Добавлено 41611 диссертаций РГБ

В каталог сайта http://new-disser.ru добавлено новые диссертации РГБ 2013-2014 года. Желаем новых научных ...


Все новости

Время генерации: 0.251, запросов: 244