Разработка методов выполнения функционально-параллельных программ на основе сетей Петри

Разработка методов выполнения функционально-параллельных программ на основе сетей Петри

Автор: Калиниченко, Борис Олегович

Шифр специальности: 05.13.18

Научная степень: Кандидатская

Год защиты: 2005

Место защиты: Москва

Количество страниц: 180 с.

Артикул: 2830606

Автор: Калиниченко, Борис Олегович

Стоимость: 250 руб.

Разработка методов выполнения функционально-параллельных программ на основе сетей Петри  Разработка методов выполнения функционально-параллельных программ на основе сетей Петри 

ОГЛАВЛЕНИЕ
ВВЕДЕНИЕ
Глава 1. Анализ параллельных архитектур, языковых иинструментальных средств параллельного
программирования
1.1 Архитектуры параллельных ВС
1.2.Выбор архитектуры для проведения исследований по созданию среды выполнения программ, написанных на языке функциональнопараллельного программирования
1.3.0бщие подходы к реализации исполнения ФП программ
М.Системы, обеспечивающие параллельное выполнение на МРР и кластерных архитектурах
1.5.Выбор среды для построения эмулирующей системы
Глава 2. Управление вычислениями в функциональнопотоковой модели
2.1.Описание динамики вычисления функциональнопотоковой модели
2.2 .Программоформ ирующие операторы
2.3.Правила срабатывания операторов
2.4.Влияние эквивалентных преобразований на формирование информационноуправляющего графа
Глава 3. Последовательность срабатываний переходов в сетях Петри и связанные с ней проблемы
3.1.Некоторые аспекты теории сетей и основные определения
3.2.Выражение предиката ргех и поведение сетей Петри
3.3.Последовательности срабатываний переходов в сетях Петри и параллелизм внутри них
3.4.Распредсленная система вычислений
3.4.1.Некоторые определения и понятия
3.4.2.Методы описания распределенных систем
ф вычисления
3.4.3.Распределенная система вычисления
3.4.4.Алгоритм сохранения глобальной информации 0 системы в локальном состоянии
процесса
Глава 4. Разработка инструментальной системы для выполнения функциональнопараллельных программ на кластерной архитеюурс
4.1 Реализация последовательнопараллельного
интерпретатора с использованием системы динамического распараллеливания IX
4.1.1 Структура интерпретатора
4.1.2 Описание входного представления
4.1.3 Общий алгоритм работы интерпретатора
4.1.4 Алгоритм параллельной интерпретации
4.1.5 Алгоритм эквивалентных преобразований списков
4.1.6 Описание протокола взаимодействия процессов при 7 передаче результатов
4.1.7 Описание входных параметров командной строки 8 интерпретатора
4.2 Оценка интерпретации ФПП
4.3 Методы повышения эффективности интерпретации
4.3.1 Оценка вычислительной сложности интерпретируемой
функции
Список использованных источников


По существу архитектура ccNUMA является МРР (массивно-параллельная архитектура) архитектурой, где в качестве отдельных вычислительных элементов берутся SMP (симметричная многопроцессорная архитектура) узлы. Масштабируемость ccNUMA-систем ограничивается объемом адресного пространства, возможностями аппаратуры поддержки когерент-кэшей и возможностями операционной системы по управлению большим числом процессоров. На настоящий момент максимальное число процессоров в cc-NUMA-системах может превышать (серии 0rigin). Наиболее известными системами архитектуры cc-NUMA являются: HP SuperDome V-class в SCA-конфигурациях, SGI Origin, Sun НРС 0, IBM/Sequent NUMA-Q . Гфлоп/с (работает под управлением ОС IRIX (вариантом Unix от SGI), HP SuperDome базируюется на разрядных RISC процессорах (PA-RISC 0 MHz) производительностью 3 Гфлоп/с. HP-UX (HP Unix). Производительность 2 процессорной системы Origin с частотой процессоров 0 MHz составляет 5. Гфлоп/с [,]. К достоинствам современных представителей ccNuma можно отнести гибкость в построении различных конфигураций системы и ее изменении «на лету», в процессе реального функционирования. Так, например, архитектура Origin носит название NUMAflex. Эту архитектуру отличает то, что в ней реализована возможность разбиения всей ccNUMA-системы на разделы, которые являются более «мелкими» ccNUMA- или SMP-компьютерами. Такое разбиение позволяет преображать ccNUMA-систему в кластерную структуру. Узлами этого кластера могут быть опять-таки ccNUMA-серверы. МРР-систсмы (Massively Parallel Processors) представляют собой класс систем с распределенной памятью [, ]. Они строятся на базе однородных вычислительных узлов, включающих один или несколько центральных процессоров (обычно RISC), локальную память (прямой доступ к памяти других узлов невозможен), два коммуникационных процессора (рутера) или сетевой адаптер, иногда - жесткие диски (как в SP) и/или другие устройства ввода-вывода. Один рутер используется для передачи команд, другой - для передачи данных. По сути, такие модули представляют собой полнофункциональные компьютеры. Доступ к банку ОП из данного модуля имеют только процессоры (ЦП) из этого же модуля. Модули соединяются специальными коммуникационными каналами. Пользователь может определить логический номер процессора, к которому он подключен, и организовать обмен сообщениями с другими процессорами. Используются два варианта работы операционной системы на машинах МРР архитектуры. В одном полноценная операционная система работает только на управляющей машине (front-end), на каждом отдельном модуле работает сильно урезанный вариант ОС, обеспечивающий работу только расположенной в нем ветви параллельного приложения. Во втором варианте на каждом модуле работает полноценная ОС. I них может достигать нескольких тысяч. RS/ SP2 (IBM), Cray Inc. ТЗЕ модели ТЗЕ-Е, T3E- и выше. В состав ТЗЕ входят разрядные RISC процессора каждый производительностью 1. Гфлоп/с (ОС - UNICOS/micro kernel-based Unix), Hitachi SR [] модели SR, SR El, SR FI, SR G1 с RISC процессорами производительностью, в зависимости от серии - 8, 9. Гфлоп/с []. Управляется ОС - HI-UX/MPP (Micro kernel Mach 3. Parsytec [,,]. При работе с МРР системами применяют Message Passing Programming Paradigm - парадигму программирования с передачей сообщений (MPI, PVM, BSPlib). МРР-системы используются для решения разнообразных вычислительных задач. Так в США в введена МРР-система TeraGrid [] мощностью . В году Cray Inc. МРР-систем Red Storm планируемой производительностью Тфлоп/с, однако пока самым высокопроизводительным суперкомпьютером в мире является векторный суперкомпьютер Earth Simulator, построенный корпорацией NEC для Института наук о земле в городе Иокогама (Япония) и используемый для анализа глобальных климатических изменений на планете. Система Earth Simulator [, ] представляет собой МРР архитектуру, базирующуюся на векторных процессоров NEC 0 Mhz производительностью 8 Гфлоп/с. Общая производительность системы достигает Тфлоп/с. Работает под управлением Unix-подобной ОС - Super-UX.

Рекомендуемые диссертации данного раздела

28.06.2016

+ 100 бесплатных диссертаций

Дорогие друзья, в раздел "Бесплатные диссертации" добавлено 100 новых диссертаций. Желаем новых научных ...

15.02.2015

Добавлено 41611 диссертаций РГБ

В каталог сайта http://new-disser.ru добавлено новые диссертации РГБ 2013-2014 года. Желаем новых научных ...


Все новости

Время генерации: 0.230, запросов: 244