+
Действующая цена700 499 руб.
Товаров:
На сумму:

Электронная библиотека диссертаций

Доставка любой диссертации в формате PDF и WORD за 499 руб. на e-mail - 20 мин. 800 000 наименований диссертаций и авторефератов. Все авторефераты диссертаций - БЕСПЛАТНО

Расширенный поиск

Нейронные сети для обработки временных рядов

  • Автор:

    Якушев, Дмитрий Жанович

  • Шифр специальности:

    05.13.17

  • Научная степень:

    Кандидатская

  • Год защиты:

    1998

  • Место защиты:

    Москва

  • Количество страниц:

    154 с. : ил.

  • Стоимость:

    700 р.

    499 руб.

до окончания действия скидки
00
00
00
00
+
Наш сайт выгодно отличается тем что при покупке, кроме PDF версии Вы в подарок получаете работу преобразованную в WORD - документ и это предоставляет качественно другие возможности при работе с документом
Страницы оглавления работы


Список основных сокращений, используемых в работе.
ИН - искусственный нейрон
ИНС (НС) - искусственная нейронная сеть (нейронная сеть)
БИС - большая интегральная схема
ПЛИС - программируемая логическая интегральная схема СР - система распознавания
Оглавление Нейронные сети для обработки временных рядов.
1. Введение
2. Основные определения
Глава I
Функция активации нейрона.
3. Функция активации нейрона искусственной нейронной сети
3.1. Основные определения и виды
3.2. Функция активации как основа выбора топологии нейронной сети
3.3. Философское значение функции активации
3.4. Аппаратная реализация функций активации на современной элементной базе
3.4.1. Реализация линейной функции активации с
настраиваемым коэффициентом крутизны
3.4.2. Реализация сигмоидной функции активации
Глава II.
Обработка временных рядов на нейронных сетях постоянной структуры.
4. Нейронные сети для решения задач обработки временных рядов
4.1. Аппроксимирующие свойства нейронных сетей. Основные теоремы
4.2. Основные приложения нейронных сетей для обработки временных рядов
4.2.1. Соответствие структур нейронных сетей и г-фильтров для задач обработки сигналов
4.2.2. Нейронные сети постоянной структуры для аппроксимации функций одной и нескольких вещественных переменных
4.2.2.1. Постановка задачи
4.2.2.2 Нейронная сеть постоянной структуры для аппроксимации функций
5. Классификация топологий искусственных нейронных сетей и алгоритмов обучения для задач обработки временных рядов
5.1. Классификация нейронных сетей по структуре их выходов, соответствующих решаемой задаче обработки временных рядов. Системный подход к построению нейронных сетей
5.2. Классификация нейронных сетей по топологии

5.2.1. Нейронная сеть фиксированной структуры
5.2.2. Нейронная сеть переменной (динамической) структуры
5.2.3. Выбор функции активации
5.2.4. Выбор локального алгоритма аппроксимации при построении сети
5.3. Классификация алгоритмов обучения нейронных сетей в соответствии с выбором функционала
5.3.1. Алгоритм обучения нейронной сети постоянной структуры
с помощью модифицированных градиентных методов
5.3.2. Алгоритм обучения нейронной сети постоянной структуры по критерию минимума модуля ошибки
6. Нейронные сети для решения задач экстраполяции
6.1. Классификация методов экстраполяции
6.2. Классификация нейросетевых методов экстраполяции
6.2.1. Классификация нейронных сетей для решения задач экстраполяции по типу входного и и выходного сигнала
6.2.1.1 .Формирование обучающего множества на основе временного ряда без учета временной координаты
6.2.1.2. Формирование обучающего множества на основе ряда с учетом временной координаты
6.2.1.3. Формирование обучающего множества с
введением времени упреждения
6.2.2. Многоканальный вариант функции Б
6.2.3. Классификация нейронных сетей для экстраполяции функций по выбору функционала оптимизации и процедуры обучения
Глава III.
Нейронные сети переменной структуры для решения задач обработки временных
рядов.
7. Нейронные сети переменной структуры для решения задач распознавания
образов и аппроксимации функций
7.1. Предпосылки использования нейронных сетей переменной структуры
7.2.2. Алгоритм построения нейронной сети переменной структуры для распознавания образов

Практически все известные подходы к проектированию нейронных сетей связаны в основном с выбором и анализом некоторых частных видов структур с известными свойствами (сети Хопфилда, Гроссберга, Кохонена) и некоторых режимов их работы. Использование нейросетей сводится к применению этих структур для решения классов адекватных им задач, при изменении или выборе параметров структур.
В предлагаемом подходе исходной точкой является формулировка задачи. По ней из широкого класса выбирается структура нейронной сети, адекватная поставленной задаче. Если требуется настройка, то используются свойства того класса структур сетей, к которому принадлежит полученная структура»
Согласно системному подходу проектирование НС производится в следующем порядке:
Входным сигналом нейронной сети является вектор, который необходимо отнести к какому-либо классу. При обучении эту роль играют вектора обучающей выборки.
Выходным сигналом нейронной сети является номер класса, к которому сеть относит входной вектор.
Желаемым выходным сигналом при обучении является указание о принадлежности каждого вектора на входе к тому или иному классу.
Структура нейронной сечи выбирается либо априори, исходя из ограничений физической реализации, либо в процессе обучения. В общем случае это многослойная НС с последовательными и/или перекрестными связями.
Выбирается ошибка системы как мера рассогласования выходного сигнала и желаемого выходного сигнала.
Выбирается функционал первичной и вторичной оптимизации.
Выбирается процесс настройки (обучения) сети, например, с помощью градиентного метода.
Структура функций активации определяет выходное множество сети, однако даже при аналогичных указаниях учителя сигмоидная функция определяет нечеткую «вероятность принадлежности», а пороговая - систему распознавания и принятия решения по классификации.
Поэтому выходы сети определяются в первую очередь характером нелинейного преобразования.
Суть системного подхода - в многообразии выбора, осуществляемого на каждом шаге.

Рекомендуемые диссертации данного раздела

Время генерации: 0.111, запросов: 967