+
Действующая цена700 499 руб.
Товаров:
На сумму:

Электронная библиотека диссертаций

Доставка любой диссертации в формате PDF и WORD за 499 руб. на e-mail - 20 мин. 800 000 наименований диссертаций и авторефератов. Все авторефераты диссертаций - БЕСПЛАТНО

Расширенный поиск

Алгоритмический синтез нейросетевых систем управления нелинейными динамическими объектами в условиях неопределенности

Алгоритмический синтез нейросетевых систем управления нелинейными динамическими объектами в условиях неопределенности
  • Автор:

    Тюкин, Иван Юрьевич

  • Шифр специальности:

    05.13.01

  • Научная степень:

    Кандидатская

  • Год защиты:

    2001

  • Место защиты:

    Санкт-Петербург

  • Количество страниц:

    273 с.

  • Стоимость:

    700 р.

    250 руб.

до окончания действия скидки
00
00
00
00
+
Наш сайт выгодно отличается тем что при покупке, кроме PDF версии Вы в подарок получаете работу преобразованную в WORD - документ и это предоставляет качественно другие возможности при работе с документом
Страницы оглавления работы
"Схемы обобщенных настраиваемых объектов с МНС с инверсной моделью обучения а разомкнутая схема б замкнутая структура, г к вектор входа обучаемой МНС у к вектор выхода ОУ еу к г су к ошибка обучения нейронной сети аобобщенная ошибка обучения. Первая из схем на рис. Б. Уидроу 3. Вторая схема использования настраиваемой сети соответствует структуре адаптивной системы прямот действия . Схемы на рис. Однако формирование полной структуры нейросетевых систем управления завершается на этапе синтеза алгоритмов обучения нейросетей, в результате чего в схемах систем управления появляются дополнительные каналы формирования информации, необходимой для вычислений в алгоритмах обучения. Включение обучаемой нейросети в структуру системы управления динамическим объектом предъявляет требования к описанию многослойной сети с помощью того же математического аппарата, который используется для описания объекта и системы управления в целом, т. Эквивалентные дифференциальные уравнения, объединяющие статическое нелинейное преобразование 1. ВР, введены в книге . Кратко технология эквивалентного описания процессов в обучаемой многослойной нейросети сводится к следующему. Чк, в I, К , 1. Л нелинейный оператор преобразования своих аргументов о, вектор обобщенной ошибки обучения в слое . Так как вектор, то нелинейный оператор Л0, очевидно, соответствует правой части уравнения 1. В силу уравнений 1. В формулах 1. ОдК оед2д1е,е0,К1. Эквивалентные структурные схемы, отражающие функционирование обучаемой многослойной нейросети в соответствии с 1, приведены на рис. Входами эквивалентной схемы являются векторы ,0, и о, выходами служат векторы и в схеме обобщенного настраиваемого объекта и дО сч0 о0 . Схемы обобщенных настраиваемых объектов с МНС с инверсной моделью обучения а разомкнутая схема б замкнутая структура, г к вектор входа обучаемой МНС у к вектор выхода ОУ еу к г су к ошибка обучения нейронной сети аобобщенная ошибка обучения. Первая из схем на рис. Б. Уидроу 3. Вторая схема использования настраиваемой сети соответствует структуре адаптивной системы прямот действия . Схемы на рис. Однако формирование полной структуры нейросетевых систем управления завершается на этапе синтеза алгоритмов обучения нейросетей, в результате чего в схемах систем управления появляются дополнительные каналы формирования информации, необходимой для вычислений в алгоритмах обучения. Включение обучаемой нейросети в структуру системы управления динамическим объектом предъявляет требования к описанию многослойной сети с помощью того же математического аппарата, который используется для описания объекта и системы управления в целом, т. Эквивалентные дифференциальные уравнения, объединяющие статическое нелинейное преобразование 1. ВР, введены в книге . Кратко технология эквивалентного описания процессов в обучаемой многослойной нейросети сводится к следующему. Чк, в I, К , 1. Л нелинейный оператор преобразования своих аргументов о, вектор обобщенной ошибки обучения в слое . Так как вектор, то нелинейный оператор Л0, очевидно, соответствует правой части уравнения 1. В силу уравнений 1. В формулах 1. ОдК оед2д1е,е0,К1. Эквивалентные структурные схемы, отражающие функционирование обучаемой многослойной нейросети в соответствии с 1, приведены на рис. Входами эквивалентной схемы являются векторы ,0, и о, выходами служат векторы и в схеме обобщенного настраиваемого объекта и дО сч0 о0 .


1. Разработан метод аналитическою синтеза оптимальных законов управления для класса нелинейных Динамических объектов. В качестве основных информационных единиц используются вектор состояния объекта локальная информация и желаемые инвариантные многообразия макроинформация. Синтезируемые макропеременные в последующем выполняют роль обобщенных ошибок в процедурах обучения МНС.
2. В развитие метода синтеза агрегированных регуляторов в условиях неопределенности математической модели объекта введен метод адаптивного управления на многообразиях и анализируются условия его применимости, в частности, в случае невыпукло параметризованных математических моделей объекта.
3. Методика синтеза нейросетевых систем управления, базирующаяся на методах адаптивного управления на многообразиях и синтеза оптимальных законов управления.
Компьютерное моделирование произведено с использованием пакета МАТНЬАВ 5.2. Моделирование подтвердило теоретические результаты работы.
Практическая ценность выполненной работы состоит в создании аппарата алгоритмического синтеза нейросетевых систем управления нелинейными динамическими объектами в условиях неопределенности.
ОГЛАВЛЕНИЕ
Введение


Схемы обобщенных настраиваемых объектов с МНС с инверсной моделью обучения а разомкнутая схема б замкнутая структура, г к вектор входа обучаемой МНС у к вектор выхода ОУ еу к г су к ошибка обучения нейронной сети аобобщенная ошибка обучения. Первая из схем на рис. Б. Уидроу 3. Вторая схема использования настраиваемой сети соответствует структуре адаптивной системы прямот действия . Схемы на рис. Однако формирование полной структуры нейросетевых систем управления завершается на этапе синтеза алгоритмов обучения нейросетей, в результате чего в схемах систем управления появляются дополнительные каналы формирования информации, необходимой для вычислений в алгоритмах обучения. Включение обучаемой нейросети в структуру системы управления динамическим объектом предъявляет требования к описанию многослойной сети с помощью того же математического аппарата, который используется для описания объекта и системы управления в целом, т. Эквивалентные дифференциальные уравнения, объединяющие статическое нелинейное преобразование 1. ВР, введены в книге . Кратко технология эквивалентного описания процессов в обучаемой многослойной нейросети сводится к следующему. Чк, в I, К , 1. Л нелинейный оператор преобразования своих аргументов о, вектор обобщенной ошибки обучения в слое . Так как вектор, то нелинейный оператор Л0, очевидно, соответствует правой части уравнения 1. В силу уравнений 1. В формулах 1. ОдК оед2д1е,е0,К1. Эквивалентные структурные схемы, отражающие функционирование обучаемой многослойной нейросети в соответствии с 1, приведены на рис. Входами эквивалентной схемы являются векторы ,0, и о, выходами служат векторы и в схеме обобщенного настраиваемого объекта и дО сч0 о0 .

Рекомендуемые диссертации данного раздела

Время генерации: 0.638, запросов: 966