+
Действующая цена700 499 руб.
Товаров:
На сумму:

Электронная библиотека диссертаций

Доставка любой диссертации в формате PDF и WORD за 499 руб. на e-mail - 20 мин. 800 000 наименований диссертаций и авторефератов. Все авторефераты диссертаций - БЕСПЛАТНО

Расширенный поиск

Нейросетевое моделирование и оптимизация многоэтапных процессов в условиях зашумленности исходных данных

  • Автор:

    Коротков, Евгений Алексеевич

  • Шифр специальности:

    05.13.18

  • Научная степень:

    Кандидатская

  • Год защиты:

    2013

  • Место защиты:

    Воронеж

  • Количество страниц:

    136 с. : ил.

  • Стоимость:

    700 р.

    499 руб.

до окончания действия скидки
00
00
00
00
+
Наш сайт выгодно отличается тем что при покупке, кроме PDF версии Вы в подарок получаете работу преобразованную в WORD - документ и это предоставляет качественно другие возможности при работе с документом
Страницы оглавления работы

ОГЛАВЛЕНИЕ
ВВЕДЕНИЕ
1. ОБЗОР И АНАЛИЗ СРЕДСТВ И МЕТОДОВ МОДЕЛИРОВАНИЯ И ОПТИМИЗАЦИИ МНОГОЭТАПНЫХ ПРОЦЕССОВ
1.1. Ограничения использования регрессионного анализа
1.2. Прикладные возможности нейронных сетей
1.3. Элементы теории нейронных сетей
1.4. Архитектура нейронной сети
1.4.1. Классификация нейронных сетей и их применение
1.4.2. Многослойные нейронные сети
1.4.3. Радиальные нейронные сети
1.5. Теоретические основы аппроксимационных свойств многослойных нейронных сетей
1.6. Понятие профиля компактности и предобработка данных в задаче классификации
1.7. Масштабирование данных
1.8. Определение необходимого числа нейронов в сети
1.9. Обучение нейронной сети
1.9.1. Алгоритмы обучения нейронных сетей
1.9.2. Понятие о задаче оптимизации
1.9.3. Обучение нейронной сети как задача оптимизации
1.9.4. Алгоритмы оптимизации функции ошибки выхода сети
1.10. Критерий окончания обучения нейронной сети
1.11. Показатели значимости входных параметров
1.12. Инверсия нейронной сети
1.13. Выводы
2. РАЗРАБОТКА МАТЕМАТИЧЕСКОЙ МОДЕЛИ
2.1. Применение понятия профиля компактности для предобработки
данных в задаче моделирования

2.2. Алгоритм получения равномерного распределения точек на поверхности решения задачи оптимизации с помощью инверсии нейронной сети
2.3. Алгоритм поиска смежных точек в пространстве
2.4. Начальные значения весовых коэффициентов
2.5. Функция активации нейронов
2.6. Выводы
3. РАЗРАБОТКА АВТОМАТИЗИРОВАННОЙ СИСТЕМЫ
3.1. Программное обеспечение
3.2. Информационное обеспечение
3.3. Выводы
4. АНАЛИЗ РЕЗУЛЬТАТОВ МОДЕЛИРОВАНИЯ И ОПТИМИЗАЦИИ НА ОСНОВЕ РАЗРАБОТАННОЙ МОДЕЛИ
4.1. Применение разработанного обеспечения
4.2. Параметры модели
4.2.1. Горячая прокатка
4.2.2. Холодная прокатка
4.2.3. Непрерывный отжиг
4.2.4. Дрессировка
4.3. Описание производства проката в ОАО «Новолипецкий металлургический комбинат»
4.4. Нейросетевая модель
4.5. Апробация системы на производственных данных
4.6. Выводы
ЗАКЛЮЧЕНИЕ
ЛИТЕРАТУРА
ПРИЛОЖЕНИЯ

ВВЕДЕНИЕ
Актуальность работы. Сложные многоэтапные процессы характеризуются наличием большого количества факторов, влияющих как на отдельные стадии этих процессов, так и на протекание нескольких процессов одновременно.
Большинство факторов оказывают существенное влияние на выходные параметры процессов, причем закономерности этого влияния имеют сложный характер. Кроме того, значения некоторых факторов можно определить только приближенно (например, они могут иметь усредненный характер, как химический состав сырья, или измерены с некоторой погрешностью [49], как геометрические параметры), а значения других вообще могут быть неизвестны (например, коэффициенты трения, параметры упрочнения [24]).
В качестве примера многоэтапных процессов можно привести металлургическое, целлюлозно-бумажное, нефтехимическое производство. В частности в металлургическом производстве холоднокатаного листа для автомобильной промышленности можно выделить следующие этапы: выплавка чугуна (более 50 параметров), конвертерное производство стали (более 100 параметров), горячая прокатка (более 100 параметров), травление (около 10 параметров), холодная прокатка (более 30 параметров), отжиг (более 20 параметров) и дрессировка (около 10 параметров).
Зависимости между факторами и выходными параметрами (математические модели) могут быть построены аналитически на основании анализа процессов, однако при этом полученные модели имеют нелинейный вид, очень сложны и их практическое использование весьма затруднительно [16].
Другой подход к моделированию предполагает использование методов идентификации, основанных на наблюдении за реальным процессом и измерении соответствующих значений факторов и выходных параметров. Полученные в результате идентификации математические модели обычно имеют

Нейронная сеть считается устойчивой, если после некоторого количества этапов обучения ни один из примеров обучающей выборки не меняет свою принадлежность к кластеру. Однако сеть продолжит обучаться, если параметр скорости обучения не равен нулю. Но эта искусственная остановка обучения вызывает другую проблему, называемую пластичностью и связанную со способностью сети к адаптации к новым данным. Возникает дилемма стабильности-пластичности Гроссберга.
Список алгоритмов обучения нейронных сетей, представленных в таблице 3, не является полным. В последнем столбце представлены задачи, для которых могут применяться эти алгоритмы. Каждый алгоритм обучения ориентирован на сеть определенной архитектуры и предназначен для ограниченного класса задач [54].
1.9.2. Понятие о задаче оптимизации
Возможность использования методов оптимизации в обучении нейронных сетей весьма привлекательна, так как существует большое количество хорошо опробованных методов оптимизации, которые реализованы в стандартных компьютерных программах. Сопоставление процесса обучения с поиском некоторых оптимальных значений также не лишено и биологических оснований, если рассматривать элементы адаптации организма к окружающим условиям в виде оптимального количества пищи, оптимального расходования энергии [20, 72].
Функция одной действительной переменной f{x) имеет локальный минимум в некоторой точке х0, если есть некоторое положительное число 5 такое, что если |х - х0| < д, тоДх) >Дх0), т.е. если есть некоторая окрестность точки х0 такая, что во всех значениях х из этой окрестности верно выражение
Лх) >/Ы-
Функция f{x) имеет глобальный минимум в точке х*, если для всех X справедливо неравенство f{x) >J{x*). На рис. 6 дано графическое представле-

Рекомендуемые диссертации данного раздела

Время генерации: 0.158, запросов: 967