Рандомизированные алгоритмы оценивания и оптимизации при произвольных помехах

Рандомизированные алгоритмы оценивания и оптимизации при произвольных помехах

Автор: Граничин, Олег Николаевич

Шифр специальности: 05.13.01

Научная степень: Докторская

Год защиты: 2001

Место защиты: Москва

Количество страниц: 250 с. ил

Артикул: 2279348

Автор: Граничин, Олег Николаевич

Стоимость: 250 руб.

Содержание
Введение
1 Некоторые задачи и методы теории оценивания
1.1 Исторический обзор
1.1.1 Стохастические рекуррентные алгоритмы.
1.2 Предварительные примеры.
1.2.1 Оценивание величины постоянного сигнала,
наблюдаемого на фоне помехи.
1.2.2 Задача об обнаружении сигнала.
1.2.3 Рандомизированные алгоритмы.
1.2.4 Функционал среднего риска.
1.2.5 Предсказание значений сигнала.
1.3 Элементы регрессионного анализа, МНК
1.3.1 Наилучшая аппроксимация одной случайной
величины с помощью другой.
1.3.2 Рекуррентные модификации МНК .
1.4 Огггимальная фильтрация
случайных процессов.
1.4.1 Фильтр ВинераКолмогорова.
1.4.2 Фильтр КалманаВьюсн
1.5 Метод стохастической аппроксимации
1.5.1 Поиск корня неизвестной функции.
Алгоритм РоббинсаМонро.
1.5.2 Минимизация функционала среднего риска
1.5.3 Процедура Кифера Вольфовица.
1.5.4 Рандомизированные алгоритмы стохастической
аппроксимации.
2 Оценка параметров линейной регрессии при произвольных
помехах
2.1 Постановка задачи,
основные предположения
2.2 Оценивание по методу стохастической
аппроксимации .
2.3 Оценки по метод наименьших квадратов.
2.4 Экспериментальные результаты.
2.4.1 Задача об обнаружении сигнала при неизвестных,
но ограниченных неслучайных помехах.
2.5 Доказательства теорем 2.12.4
3 Оценка параметров авторегрессии и скользящего среднего
при произвольных помехах
3.1 Применение к моделям авторегрессии
3.2 Оценивание параметров модели
скользящего среднего.
3.3 Идентификации динамического объекта
3.3.1 Пробный сигнал.
3.3.2 Введение параметра оценивания
33.3 Рандомизированный алгоритм идентификации .
3.4 Доказательство теоремы 3.2.
4 Фильтрация случайных процессов, наблюдаемых на фоне
произвольных ограниченных помех
4.1 Предсказание сигнала, наблюдаемого на фоне произвольных
ограниченных помех.
4.2 Отслеживание дрейфа параметров
модели линейной регрессии
4.2.1 Необходимые и достаточные условия
стабилизации МНК.
4.2.2 Анализ свойств оценок при различных типах помех
4.3 Экспериментальные результаты.
4.3.1 Фильтрация предсказание сигнала .
43.2 Оценивание изменяющихся параметров сигнала . . .
5 Рандомизированные алгоритмы стохастической
аппроксимации при произвольных помехах
5.1 Формулировки и обоснования
рандомизированных алгоритмов СА .
5.1.1 Постановка задачи и основные предположения . . .
5.1.2 Пробное возмущение и основные алгоритмы
5.1.3 Сходимосш с вероятностью единица и
в среднеквадратичном смысле
51.4 Дифференцирующие ядра и
распределения пробного возмущения
5.1.5 Скорость сходимости
5.2 Оптимальные порядки точности
алгоритмов стохастической оптимизации.
5.2.1 Минимаксный порядок скорости сходимости
рандомизированных алгоритмов СЛ
5.2.2 Нижняя граница для асимптотической
скорости сходимости
5.3 Экспериментальные результаты
5.3.1 Сравнительное моделирование оценок ККВ и БРБА
алгоритмов
5.3.2 Пошаговое выполнение алгоритма .
5.3.3 Программа на языке МАТЬ АП .
5.4 Доказательства теорем 5.1 н 5.2.
6 Применении рандомизированных алгоритмов
6.1 Способ обнаружения некоторых
химических элементов в мишени.
6.2 Практические приложения
рандомизированных алгоритмов СА
6.2.1 Синхронизация сигналов светофоров
для управления движением на сети дорог
6.2.2 Оптимальный выбор целей для систем оружия . . .
6.2.3 Поиск скрытых объектов с помощью ЭЛО
6.3 Обучающиеся системы
6.3.1 Аппроксимация функции с помощью линейной
комбинации известных функций
6.3.2 Модель обучаемой системы. Нейронные сети
6.3.3 Задача самообучения.
6.3.4 Применение при исследовании ритмической
структуры стихов
6.4 Оптимизация систем реального времени
6.4.1 Отслеживание дрейфа экстремума
нес тационарною функционала.
6.4.2 Оптимизация работы маршрутизатора.
6.4.3 Оптимизация работы сервера .
6.5 Оптимизация расчетов цен опционов.
6.5.1 Рынки, акции, фьючерсы, опционы.
6.5.2 Расчет текущей цены опционов
6.6 Квантовые компьютеры и
рандомизированные алгоритмы.
6.6.1 Квантовые цепи
6.6.2 Квантовая цепь, вычисляющая аппроксимацию
вектораградиента функции.
7 Адаптивное управление при произвольных
ограниченных помехах
7.1 Стабилизирующий алгоритм модифицированная полоска
при управлении дискретным линейным объектом.
7.2 Алгоритм идентификации .
7.3 Адаптивная оптимизация
7.4 Экспериментальные результаты
7.4.1 Адаптивное оптимальное управление неминимально
фазовым объектом второго порядка.
7.5 Доказательства лемм 7.17.3.
Заключение
Приложение
Список обозначений
Список литературы


Для модели авторегресии оценивается часть неизвестных парамегров, для скользящего среднего зги алгоритмы предоставляют возможность полной идентификации. Болес сложной является задача полной идентификации параметров модели авторегрессии скользящего среднего, используемой для описания динамической системы управления. В u. В следующем п. V, = J2ii-ifi + v«. R1 - выходы (наблюдения), <р< € R7 — входы, v, € R1 — помехи, € № - векторы неизвестных параметров, y3_t, t = 1,2,. Пусть s > р — некоторое натуральное число, входы о ~ последовательность случайных векторов, ограниченных в среднеквадратичном смысле: Е{||<р(|(} < <7*, с известными и равномерно ограниченными математическими ожиданиями: ||E{v? Mv < оо для любого п > 0. Если i C {0,1,. Ди) : Дя — 'Рзп - Е {о ~ независимые центрированные случайные вектора с симметричными функциями распределения Рп(-) и матрицами ковариаций Е{Лг,Д? V™- i^T+i + • • •+ + v*n+i, можно в силу схемы наблюдения (3. УляН = ‘pJn + Cn. Если для помех {гг*} выполнено условие (LR. VM Е{? Ц2) < оо. Следовательно, для оценивания вектора «’ применим любой из грех алгоритмов: (2. Б силу произвольности * € {0,1,. Rp+l, ^' = (Й5 ^elfxr. Теорема 3. Пусть ап > 0 - неслучайная последовательность и Г — некоторая положителъно-определешшя q х q матрица. А» = #х. A„(v? A-, - У„т). Аъиая и ее асимптотическая скорость сходимости характеризуется нсравенствами: E{(0ni — 0*)(0п< — О*)1} < п”1 S + o(n_1)t t = 0,1. Pi ° которых 0nj — г-ый сто. S явмстся решепием матричного урлвнения Г В S + S В Г -S = + М*р)ГВГ при каком-либо р > 0. В п. ОУ; и, — вход ОУ (управ. W + 9-*-‘Єч » + • - + Q-’b? T. = {a['al. W+'. Пусть часгично иди полностью коэффициенты уравнения ОУ неизвестны. ОУ {уг) при известных входах (управлениях) {щ} оценить значения неизвестных коэффициентов уравнения ОУ (3. Для того, чтобы последовательность стохастических регрессоров рассматриваемой системы обеспечивала выполнение условия постоянного воабуждамя, являющегося обычно необходимым для построения состоятельной последовательности оценок, в и. Пусть $ > 2р—к — некоторое натуральное число и {Д„}„>о — скалярное пробное возмущение (случайная последовательность), удовлетворяющее условию (МА. УСЛОВИЮ (К1-1) г/,(й,Уг ь. Т1Г-ь. Яп, V п = 0,1,. Б частности, возможно щ = 0. К1. Ш.З) известно ограниченное и замкнутое множество Т: т* Е Т. Обсуждаемый далее идсигафицнруюндоО алгоритм основан на пере-параметризацнн уравнения (3. В п. Ф»(А,г) и ТДА, г) при том условии, что степень многочлена ФДА. I. Действуя на обе части уравнения ОУ (3. Ф<(д-|,г. Л+1,. Л—1} получаем при/ = А;, Л+1,. У*п = ТДд' 1,т. П + Ч'Дд“1>т,)6(9",,т. Я1+1 + Щщ т. Обозначим через 0;1 = 0®{тл) коэффициент при иля в правой части последней формулы при I = к + і - 1. Величины і = 1,2,. Веденный новый набор параметров может оказаться избыточным в том смысле, что для восстановления неизвестных компонент вектора т* необязательно нужны значения всех в^ і = 1,2,. Например, если неизвестен всего один коэффициент Ь[к то для его восстановления достаточно знать только в[ХК Выберем размерность векторов новых параметров г (г < $) из условия возможности однозначною восстаиавлсиия вектора т# по соответствующему ему вектору новых параметров. Более точно, пусть г е N. А(т) = а<2) а<’> . Т С Р<‘р * на неко-горое подмножество 0 С йг. Бели неизвестны все коэффициенты многочленов й(-,т,), 6(-,т. Ш.4) для неизвестного параметра т. Т многочлены а^т*) и Ь{-? Г = ра + рь~ к+ 1. Заканчивается пункт 3. ОУ (3. Уі + + Уі~2 - + ,, і = 1,2,. Ю], Ь[и є (1,], Ь[г) Є 1-,0]. Г=«0(т*)=[ Ь™ - а! ЬІх) Єй1. При заданных ограничениях на неизвестные параметры ОУ отображение <>(•) : Т -» О = в(Т) С Xі обратимо. Вектор коэффициентов ОУ т. В следующем пункте 3. Если при 1 € ]яп 4- к,. При выполнении условий: (КІ. Ш.2) для начатысых данных, (Ш. З)ддя множества неопределенности и (LR. Bin) для помех {г,}, удовлетворяются все условия теоремы 3. В > 1. Выполнение условия (Ш. Теорема 3. Д,,} удовлетворяет допущению (МА-1). Если выполнены уеловил (RI. RI. LR,Biii), ? Ofn-1) u 2А*|. Т0п), $п < t < $(п + 1), s = 1,2,. Если? Доказательство теоремы 3.

Рекомендуемые диссертации данного раздела

28.06.2016

+ 100 бесплатных диссертаций

Дорогие друзья, в раздел "Бесплатные диссертации" добавлено 100 новых диссертаций. Желаем новых научных ...

15.02.2015

Добавлено 41611 диссертаций РГБ

В каталог сайта http://new-disser.ru добавлено новые диссертации РГБ 2013-2014 года. Желаем новых научных ...


Все новости

Время генерации: 0.311, запросов: 244