+
Действующая цена700 499 руб.
Товаров:
На сумму:

Электронная библиотека диссертаций

Доставка любой диссертации в формате PDF и WORD за 499 руб. на e-mail - 20 мин. 800 000 наименований диссертаций и авторефератов. Все авторефераты диссертаций - БЕСПЛАТНО

Расширенный поиск

Топология поиска нейросетевой модели с помощью генетических алгоритмов

Топология поиска нейросетевой модели с помощью генетических алгоритмов
  • Автор:

    Чистик, Игорь Константинович

  • Шифр специальности:

    05.13.01

  • Научная степень:

    Кандидатская

  • Год защиты:

    2013

  • Место защиты:

    Краснодар

  • Количество страниц:

    130 с. : ил.

  • Стоимость:

    700 р.

    499 руб.

до окончания действия скидки
00
00
00
00
+
Наш сайт выгодно отличается тем что при покупке, кроме PDF версии Вы в подарок получаете работу преобразованную в WORD - документ и это предоставляет качественно другие возможности при работе с документом
Страницы оглавления работы
"
БЗПЗН - база знаний о предыдущих запусках нейронных сетей; 
БЗНС - база знаний о нейронных сетях;

Принятые сокращения

БЗ - база знаний;

БЗПЗН - база знаний о предыдущих запусках нейронных сетей;

БЗНС - база знаний о нейронных сетях;

БЗВР - база знаний о временных рядах;

БЗГА - база знаний о генетических алгоритмах;


ГА - генетический алгоритм (‘генетические алгоритмы’ - в контексте); НАД - интеллектуальный анализ данных;

РБФ - радиально - базисная функция;

НС - нейронная сеть;



Оглавление
Введение
Глава 1. Нейронные сети и генетические алгоритмы
1.1 Искусственные нейронные сети
1.2 Пластичность нейронной сети
1.3 Подходы к ускорению обучения нейронных сетей
1.4 Стохастические методы обучения нейронных сетей
1.4.1 Обзор стохастических методов обучения нейронных сетей
1.4.2 Машина Больцмана
1.4.3 Сигмоидальные сети доверия
1.4.4 Распределение Гиббса
1.4.5 Метод «отжига»
1.4.6 Алгоритм Метрополиса
1.4.7 Машина Гельмгольца
1.6 Индекс производительности стохастических методов
1.7 Генетические алгоритмы
1.7.1 Совместное применение генетических алгоритмов и нейронных сетей
1.7.2 Применение генетических алгоритмов
Выводы Г лавы
Глава 2. Топология генетического поиска нейросетевой модели
Введение
2.1 Топология стохастического генератора для обучения нейронной сети
2.2 Основные операции с прототипами
2.3 Общая структура топологии
2.4 Общий алгоритм работы топологии
2.5 Структура и принцип действия интеллектуальной базы знаний
2.5.1 База знаний о нейронных сетях

2.5.2 База знаний по генетическим алгоритмам
2.5.3 База знаний о временных рядах
2.5.4 База знаний о предыдущих запусках поиска нейронных сетей
2.5.6 Блок управления популяциями
2.5.7 Блок генерации прототипа
2.5.8 Модуль предварительного расчета параметров нейросети (слои+нейроны)
2.5.9 Блок оценки сложности задачи
2.5.10 Блок получения новых особей
2.5.11 Блок оценки особей
2.5.12 Блок отбора особей
2.5.16 Модуль обучения нейросетей
2.5.17 Блок расчета ошибки нейросети
2.6 Вариант топологии без обучения нейронной сети
2.7 Вариант топологии с обучением нейронной сети
2.8 Вариант топологии с ансамблем нейросетей
2.10 Топология с параллельным механизмом генетического поиска
2.11 Сравнение с эволюционными алгоритмами
Выводы Главы
Глава 3. Реализация топологии генетического поиска нейросетевых
моделей
3.1 Постановка задачи анализа и прогнозирования биржевых котировок..
3.2 Прогнозирование финансовых временных рядов с помощью нейронных сетей
3.3 Механические торговые системы
3.4 Описание разработанной информационной системы
3.5 Описание реализованного алгоритма
3.6 Реализация стохастического генератора
3.6.1. Описание реализации БЗНС

одного из потомков выбираются случайно от любого (но сохранением порядка следования символов), а второму потомку достаются оставшиеся символы. Например, два потомка родителей S1 = (811, S12,..., S1N) и S2 = (S21, S22,..., S2N), могут иметь следующие хромосомы (S11, S22, S13, S14,..., S2N) и (S21, S12, S23, S24,..., S1N). Каждая особь обычно получает возможность стать родителем с вероятностью, пропорциональной ее приспособленности.
Как метод оптимизации, ГА обладает внутренним параллелизмом (implicit parallelism): разные частные существенные комбинации генов - их часто называют "схематами" (“schemata”) - отыскиваются параллельным образом, одновременно для всех комбинаций. Отметим, что чем меньше комбинация, тем легче она может быть найдена.
Стандартная топология реализации генетического алгоритма показана на Рисунке 2. Обычно вводятся генератор хромосом, генератор банков особей и генератор параметров. Операторы кроссовера и мутации работают раздельно и независимы. Отбор хромосом в следующую эпоху обычно проводится с помощью одного алгоритма.
Нередко используется отдельный сектор для вновь полученных хромосом с помощью операций кроссовера и мутации. То есть существуют несколько банков особей в рамках одной эпохи, из которых выбираются хромосомы для скрещивания и мутаций, после применения операций полученные хромосомы заносятся в отдельный сектор и среди них согласно функции приспособленности выбираются особи для следующей эпохи. Но наиболее распространен вариант, когда новые хромосомы остаются в том банке, откуда были взяты их родители и отбор идет, как среди потомков, так и родителей.

Рекомендуемые диссертации данного раздела

Время генерации: 0.125, запросов: 967