Доставка любой диссертации в формате PDF и WORD за 499 руб. на e-mail - 20 мин. 800 000 наименований диссертаций и авторефератов. Все авторефераты диссертаций - БЕСПЛАТНО
Круглов, Игорь Александрович
05.13.01
Кандидатская
2013
Москва
151 с. : ил.
Стоимость:
499 руб.
Список используемых обозначений
ки - кинетическое индентирование
мкэ - метод конечных элементов
МНС - многослойная нейронная сеть
НС - нейронная сеть
РБФ - радиальные базисные функции
СВ - случайная величина
ско - среднеквадратичное отклонение
МАХИЕ - максимальная относительная ошибка
МИЕ - средняя относительная ошибка
Содержание
Список используемых обозначений
Введение
Глава 1. Идентификация моделей функциональных зависимостей на основании набора эмпирических данных
1.1. Извлечение экспериментальных зависимостей из данных. Прямая и обратная задачи
1.2. Идентификация моделей функциональных преобразований: классический
подход
1.3. Идентификация моделей функциональных преобразований: нейросетевой
подход
1.3.1. Построение решения
1.3.2. Нейросетевые аппроксимационные модели
1.4. Плохо обусловленные задачи и их регуляризация
1.5. Проблема оценки точности моделей
1.5.1. Бутстреппинг
1.5.2. Кросс-валидация
1.6. Байесовский подход к обучению нейронных сетей
1.6.1. Обобщающая способность моделей
1.6.2. Обучение и регуляризация нейронных сетей по Байесу
1.6.3. Применение байесовского подхода к аппроксимации функций на зашумлённых данных
1.6.4. Оценка погрешности модели
1.6.5. Выводы по байесовскому подходу
1.7. Комитеты нейронных сетей
1.7.1. Повышение точности модели за счёт использования комитета
1.7.2. Стандартные архитектуры комитетов нейронных сетей
1.7.3. Метод отрицательного корреляционного обучения
1.7.4. Выводы по использованию комитетов нейронных сетей
Выводы по первой главе
Глава 2. Комитет нейронных сетей для плохо обусловленных задач восстановления функциональных зависимостей
2.1. Постановка задачи
2.2. Априорная оценка точности решения обратной задачи
2.3. Апостериорная оценка точности решения обратной задачи
2.3.1. Соединение решений прямой и обратной задач
2.3.2. Бутстреппинг
2.4. Комитет нейронных сетей
2.4.1. Архитектура и функционирование комитета
2.4.2. Алгоритм принятия решения в комитете
2.4.3. Формирование обучающих и тестовых выборок
2.4.4. Оценка степени корреляции результатов работы сетей в комитете .
2.5. Демонстрация работы комитета на модельных примерах
2.5.1. Пример с одномерной зависимостью
2.5.2. Пример с многомерной зависимостью
Выводы по второй главе
Глава 3. Задача оценивания прочностных характеристик металла по результатам кинетического индентирования
3.1. Описание проблемной области
3.2. Метод одноосного растяжения
3.3. Метод кинетического индентирования
3.4. Формализация задачи
3.4.1. Постановка задачи
3.4.2. Параметризация диаграммы индентирования
3.5. Расчёт априорной оценки точности решения обратной задачи
3.6. Исследование особенностей данных. Плохая обусловленность
Выводы по третьей главе
Глава 4. Экспериментальные результаты нейросетевого оценивания значений механических характеристик металла по данным кинетического индентирования
помощи модели Н{ (г = 1,2,,N):
Величина P{Hi) представляет собой априорную вероятность выбора модели Нг. Она может быть установлена исходя из предположений о предпочтительности или правдоподобности той или иной модели. В отсутствие таких предположений эта вероятность устанавливается одинаковой для всех моделей и равной jj. Поскольку вероятность P(D) не зависит от выбора модели, то для разных моделей отличие апостериорной вероятности обусловлено величиной P(DHj), называемой подтверждением (англ. evidence [59]) модели Hi. Это положение для случая трёх различных моделей схематически проиллюстрировано на рис.
1.5. Каждая модель обладает последовательно возрастающим уровнем сложности - от самой простой модели Н1 до самой сложной Н3, способной моделировать широкий диапазон данных.
Исходя из постулатов теории вероятностей, байесовский подход из множества альтернативных моделей предпочтение отдаёт моделям средней степени сложности. Модели такого ро-
_ , _ „ . да, с одной стороны, имеют большую
1ис. 1.5. Вероятность наблюдения данных для моде-
обобщающую способность, чем слиш-
лей с различным уровнем сложности |60|
ком простые, а с другой стороны не выполняют банального «запоминания» данных, к которому склонны слишком мощные модели. Демонстрация этой идеи представлена в [60] на следующем модельном примере (см. рис. 1.5).
Из рис. 1.5 видно, что наибольшей апостериорной вероятностью для рассматриваемого набора данных D0 будет обладать модель средней сложности Н2. Широкий диапазон наблюдаемых с помощью более сложной модели Н3 данных и нормировка функции вероятности приводят к тому, что данная модель будет отклонена в пользу более простой II2- Модель //] обладает низкой обобщающей способностью, поэтому также проигрывает модели Н2.
Название работы | Автор | Дата защиты |
---|---|---|
Разработка методов идентификации интервальных нейронных сетей в информационно-аналитических системах при управлении объектами с неопределенностью | Полозова, Юлия Евгеньевна | 2019 |
Синтез алгоритмов наведения летательных аппаратов с учетом дуального эффекта | Цепков, Сергей Викторович | 1993 |
Модели, алгоритмы и программные средства обработки информации и принятия решений при составлении расписаний занятий на основе эволюционных методов | Абухания, Амер Ю.А | 2016 |