Параметрические методы для решения оптимизационных задач в условиях неполной информации

Параметрические методы для решения оптимизационных задач в условиях неполной информации

Автор: Канева, Ольга Николаевна

Шифр специальности: 05.13.18

Научная степень: Кандидатская

Год защиты: 2005

Место защиты: Омск

Количество страниц: 125 с. ил.

Артикул: 2853815

Автор: Канева, Ольга Николаевна

Стоимость: 250 руб.

Параметрические методы для решения оптимизационных задач в условиях неполной информации  Параметрические методы для решения оптимизационных задач в условиях неполной информации 

1. Двухэтапная задача стохастического программирования
1.1. Постановка задачи.
1.2. Новая постановка задачи второго этапа.
1.3. Условия разрешимости задачи второго этапа.
1.4. Многокритсриальность задачи второго этапа.
1.5. Положительная диагональная матрица компенсаций . .
1.6. Положительно определенная матрица компенсаций . . .
2. Методы решения двухэтапной задачи
2.1. Метод проектирования стохастических квазиградиентов
2.2. Алгоритм
2.3. Алгоритм
2.4. Нахождение решения задачи второго этапа. Алгоритм 3 .
3. Задача нечеткого программирования
3.1. Максимизирующее решение.
3.2. Обобщенное решение .
3.3. Алгоритм
4. Прикладные задачи
4.1. Система регулирования насосной станции
4.2. Портфель ценных бумаг.
Заключение Список литературы
Приложение А Численные эксперименты
Введение


Наиболее часто используемыми условиями являются так называемые условие регулярности Слейтера и условие линейной независимости 2. Численные методы нахождения локального оптимума в общем случае без ограничений основаны на следующих рассуждениях. Пусть i,. Сдвинемся из точки х в направлении с шагом р 0, то есть рассмотрим точку х . Тогда при малом р выполняется равенство
x x д Г i i
где X щ, а величина такова, что 0. Рх, примем этот вектор направлен но внутренней нормали к единственной касательной гиперплоскости, которую можно провести к линии уровни у Ру . Рх в точке х. Таким образом, чтобы из точки х сместиться в область меньших значений, достаточно найти вектор Рхх. Вектор Рхх ,,. РХл называется градиентом функции я, а вектор Рхх антиградиентом. Если при этом удачно выбирается величина р3, то с каждым шагом процесса 0. Весьма важными в прикладном отношении являются вопросы минимизации непрерывных, но негладких функций , . Отсутствие непрерывных производных функций цели или ограничений для экстремальной задачи существенно усложняет поиск точек экстремума. Например, если функция Рх недифферснцирусмая, то классические уравнения 0. Негладкий характер функции обусловлен различными причинами. Ж1 X3 р,ъРхх, в 0,1,. Негладкие функции возникают в теории приближений, при решении несовместных систем уравнений, при решении параметрических задач линейного программирования, задач принятия решений при неопределенности. Численный метод обобщенного градиентного спуска минимизации выпуклой вниз негладкой функции предложен в году Н. З. Шором, а в работах , были даны наиболее общие условия его сходимости. Основная идея метода состоит в следующем. Если выпуклая вниз функция Рх не имеет непрерывной производной, то ее линии уровня могут терпеть изломы в некоторых точках х8. В этом случае в точке х8 нет единственной касательной гиперплоскости, а имеется целое семейство так называемых опорных гиперплоскостей, которые можно провести через точку Xе. Оказывается, что подобно тому, как касательная гиперплоскость может быть охарактеризована градиентом, каждая опорная гиперплоскость характеризуется некоторым вектором, направленным по внешней нормали к гиперплоскости и получившим название вектора обобщенного градиента. РгРхРхх,гх 0. В общем случае векторов Рхх, удовлетворяющих 0. Но если функция Рх непрерывно дифференцируема, то неравенству 0. Ртх функции Рх. По аналогии с градиентным методом 0. Х X ,xxx, 0,1,. ОДИН из обобщенных градиентов в точке X, нормирующий множитель. В отличие от метода 0. Более того, в методе 0. В процедуре 0. Ъ О, . Эти условия являются естественными для сходимости последовательности х8 к точке минимума x. В частности, расходимость ряда р3 должна обеспечить достижение точки экстремума из произвольной точки х. При минимизации выпуклой не обязательно гладкой функции x при х X, где X выпуклое множество, процедуру 0. Г1 тгхх xx, 0,1,. Е X. В качестве x для метода 0. Условия сходимости метода 0. Перейдем теперь к задачам принятия решений в условиях неполной информации, являющихся основным объектом диссертационных исследований. Исходная информация для планирования, проектирования и управления в экономике, технике и социальных областях, как правило, недостаточно достоверна. Таким образом, в математических моделях, к исследованию которых сводятся соответствующие практические задачи, некоторые или все параметры показателя качества и ограничений могут оказаться неопределенными или случайными. Рассмотрим сначала ситуацию, когда в наличии имеются некоторые статистические данные или возможность их получения в результате какихлибо исследований процессов, определяющих изменение исходных данных. Предполагается, что по этой выборке статистических данных можно установить те или иные вероятностные характеристики параметров задачи. В этом случае говорят, что принятие решения происходит в условиях риска. Такие ситуации являются объектом исследования стохастического программирования. Этой тематике посвящено большое число монографий, к примеру , 1, , , . Рассмотрим специфику этих задач.

Рекомендуемые диссертации данного раздела

28.06.2016

+ 100 бесплатных диссертаций

Дорогие друзья, в раздел "Бесплатные диссертации" добавлено 100 новых диссертаций. Желаем новых научных ...

15.02.2015

Добавлено 41611 диссертаций РГБ

В каталог сайта http://new-disser.ru добавлено новые диссертации РГБ 2013-2014 года. Желаем новых научных ...


Все новости

Время генерации: 0.306, запросов: 244