+
Действующая цена700 499 руб.
Товаров:
На сумму:

Электронная библиотека диссертаций

Доставка любой диссертации в формате PDF и WORD за 499 руб. на e-mail - 20 мин. 800 000 наименований диссертаций и авторефератов. Все авторефераты диссертаций - БЕСПЛАТНО

Расширенный поиск

Нейросетевая обработка данных для плохо обусловленных задач идентификации моделей объектов

Нейросетевая обработка данных для плохо обусловленных задач идентификации моделей объектов
  • Автор:

    Круглов, Игорь Александрович

  • Шифр специальности:

    05.13.01

  • Научная степень:

    Кандидатская

  • Год защиты:

    2013

  • Место защиты:

    Москва

  • Количество страниц:

    151 с. : ил.

  • Стоимость:

    700 р.

    499 руб.

до окончания действия скидки
00
00
00
00
+
Наш сайт выгодно отличается тем что при покупке, кроме PDF версии Вы в подарок получаете работу преобразованную в WORD - документ и это предоставляет качественно другие возможности при работе с документом
Страницы оглавления работы
"
МНС - многослойная нейронная сеть 
РБФ - радиальные базисные функции

Список используемых обозначений

ки - кинетическое индентирование

мкэ - метод конечных элементов

МНС - многослойная нейронная сеть

НС - нейронная сеть

РБФ - радиальные базисные функции

СВ - случайная величина

ско - среднеквадратичное отклонение

МАХИЕ - максимальная относительная ошибка

МИЕ - средняя относительная ошибка



Содержание
Список используемых обозначений
Введение
Глава 1. Идентификация моделей функциональных зависимостей на основании набора эмпирических данных
1.1. Извлечение экспериментальных зависимостей из данных. Прямая и обратная задачи
1.2. Идентификация моделей функциональных преобразований: классический
подход
1.3. Идентификация моделей функциональных преобразований: нейросетевой
подход
1.3.1. Построение решения
1.3.2. Нейросетевые аппроксимационные модели
1.4. Плохо обусловленные задачи и их регуляризация
1.5. Проблема оценки точности моделей
1.5.1. Бутстреппинг
1.5.2. Кросс-валидация
1.6. Байесовский подход к обучению нейронных сетей
1.6.1. Обобщающая способность моделей
1.6.2. Обучение и регуляризация нейронных сетей по Байесу
1.6.3. Применение байесовского подхода к аппроксимации функций на зашумлённых данных
1.6.4. Оценка погрешности модели
1.6.5. Выводы по байесовскому подходу
1.7. Комитеты нейронных сетей
1.7.1. Повышение точности модели за счёт использования комитета
1.7.2. Стандартные архитектуры комитетов нейронных сетей
1.7.3. Метод отрицательного корреляционного обучения
1.7.4. Выводы по использованию комитетов нейронных сетей
Выводы по первой главе

Глава 2. Комитет нейронных сетей для плохо обусловленных задач восстановления функциональных зависимостей
2.1. Постановка задачи
2.2. Априорная оценка точности решения обратной задачи
2.3. Апостериорная оценка точности решения обратной задачи
2.3.1. Соединение решений прямой и обратной задач
2.3.2. Бутстреппинг
2.4. Комитет нейронных сетей
2.4.1. Архитектура и функционирование комитета
2.4.2. Алгоритм принятия решения в комитете
2.4.3. Формирование обучающих и тестовых выборок
2.4.4. Оценка степени корреляции результатов работы сетей в комитете .
2.5. Демонстрация работы комитета на модельных примерах
2.5.1. Пример с одномерной зависимостью
2.5.2. Пример с многомерной зависимостью
Выводы по второй главе
Глава 3. Задача оценивания прочностных характеристик металла по результатам кинетического индентирования
3.1. Описание проблемной области
3.2. Метод одноосного растяжения
3.3. Метод кинетического индентирования
3.4. Формализация задачи
3.4.1. Постановка задачи
3.4.2. Параметризация диаграммы индентирования
3.5. Расчёт априорной оценки точности решения обратной задачи
3.6. Исследование особенностей данных. Плохая обусловленность
Выводы по третьей главе
Глава 4. Экспериментальные результаты нейросетевого оценивания значений механических характеристик металла по данным кинетического индентирования

помощи модели Н{ (г = 1,2,,N):
Величина P{Hi) представляет собой априорную вероятность выбора модели Нг. Она может быть установлена исходя из предположений о предпочтительности или правдоподобности той или иной модели. В отсутствие таких предположений эта вероятность устанавливается одинаковой для всех моделей и равной jj. Поскольку вероятность P(D) не зависит от выбора модели, то для разных моделей отличие апостериорной вероятности обусловлено величиной P(DHj), называемой подтверждением (англ. evidence [59]) модели Hi. Это положение для случая трёх различных моделей схематически проиллюстрировано на рис.
1.5. Каждая модель обладает последовательно возрастающим уровнем сложности - от самой простой модели Н1 до самой сложной Н3, способной моделировать широкий диапазон данных.
Исходя из постулатов теории вероятностей, байесовский подход из множества альтернативных моделей предпочтение отдаёт моделям средней степени сложности. Модели такого ро-
_ , _ „ . да, с одной стороны, имеют большую
1ис. 1.5. Вероятность наблюдения данных для моде-
обобщающую способность, чем слиш-
лей с различным уровнем сложности |60|
ком простые, а с другой стороны не выполняют банального «запоминания» данных, к которому склонны слишком мощные модели. Демонстрация этой идеи представлена в [60] на следующем модельном примере (см. рис. 1.5).
Из рис. 1.5 видно, что наибольшей апостериорной вероятностью для рассматриваемого набора данных D0 будет обладать модель средней сложности Н2. Широкий диапазон наблюдаемых с помощью более сложной модели Н3 данных и нормировка функции вероятности приводят к тому, что данная модель будет отклонена в пользу более простой II2- Модель //] обладает низкой обобщающей способностью, поэтому также проигрывает модели Н2.

Рекомендуемые диссертации данного раздела

Время генерации: 0.146, запросов: 967