+
Действующая цена700 499 руб.
Товаров:
На сумму:

Электронная библиотека диссертаций

Доставка любой диссертации в формате PDF и WORD за 499 руб. на e-mail - 20 мин. 800 000 наименований диссертаций и авторефератов. Все авторефераты диссертаций - БЕСПЛАТНО

Расширенный поиск

Исследование конечно-линейных статистических моделей. Оптимизация и избыточность

  • Автор:

    Ананьевская, Полина Валерьевна

  • Шифр специальности:

    05.13.18

  • Научная степень:

    Кандидатская

  • Год защиты:

    2013

  • Место защиты:

    Санкт-Петербург

  • Количество страниц:

    142 с. : ил.

  • Стоимость:

    700 р.

    499 руб.

до окончания действия скидки
00
00
00
00
+
Наш сайт выгодно отличается тем что при покупке, кроме PDF версии Вы в подарок получаете работу преобразованную в WORD - документ и это предоставляет качественно другие возможности при работе с документом
Страницы оглавления работы

Содержание
Глава 1. Конечно-линейные статистические модели
1.1. Обзор классических подходов к многомерному анализу категориальных данных
1.1.1. Оптимальное шкалирование
1.1.2. Анализ главных компонент
1.1.3. Канонический корреляционный анализ
1.1.4. Классификация
1.2. Конечно-линейный подход
1.2.1. Редукция размерности
1.2.2. Каноническая сцепленность или структурная зависимость
1.2.3. Жестко-симметрическая классификация
Глава 2. Векторная параметризация многообразия Грассмана
2.1. Грассманиан и теорема о векторной параметризации
2.2. Уровневый подход к доказательству теоремы в случае поля Ег
2.3. Обобщение доказательства на случай поля ¥д
Глава 3. Алгоритм дискретной оптимизации
3.1. Отношение линейного порядка
3.2. Алгоритм быстрого перечисления точек грассманиана РОЕА .
3.3. Монотонные характеристики
3.4. Дискретная оптимизация
3.4.1. Пошаговый и последовательный подходы
3.4.2. Оценка эффективности

3.5. Дискретная оптимизация в конечно-линейных моделях
3.5.1. Редукция размерности
3.5.2. Структурная зависимость
3.5.3. Жестко-симметрическая классификация
Глава 4. Детализация алгоритма дискретной оптимизации для параллельной архитектуры ССГОА
4.1. Особенности устройства СР
4.1.1. Потоковая структура
4.1.2. Виды памяти
4.2. Представление алгоритма дискретной оптимизации в удобном
для параллельных вычислений виде
4.3. Быстрый способ вычисления энтропии
4.4. Оценка эффективности на модельных выборках
Глава 5. Моделирование
5.1. Исследование ассимптотических свойств оценки параметра в модели редукции размерности
5.1.1. Сходимость в случае независимых исходных признаков
5.1.2. Сходимость в случае зависимых исходных признаков .
5.2. Исследование ассимптотических свойств оценки параметра в модели классификации
5.2.1. Сходимость в случае независимых исходных признаков
5.2.2. Сходимость в случае зависимых исходных признаков .
Глава 6. Исследование избыточности классификационной модели
6.1. Пространство классификаций

6.2. Теорема об инцидентности векторов случайному векторному пространству
6.3. Оценка избыточности
6.4. Исследование качества оценки на модельных данных
Глава 7. Анализ реальных данных
7.1. Редукция размерности
7.2. Структурная зависимость
7.3. Классификация
Заключение
Литература

и, используя свойство
бнп(РР Г) Уг+1) - 1 < сШп(РР П к) < сРт(РР П Ц+1), (2.4)
построим искомый базис Ж.
Неравенство (2.4) хорошо известно, но мы тем не менее приведем несложное доказательство для полноты изложения. По теореме о размерности суммы и пересечения для IV и Ц и для IV и р+ь соответственно, имеем:
сИт(1Р П Р+1) — сИт(РР П V)) =
= (сНт(Уг+1) - сИт(Р)) - (<11т(И^ + - сНт(РР + Ц)). (2.5)
По определению р, сНт(р+1) — сйт(р) = 1, атак как (р +¥) С (Р+1 + IV), то сйт(Р+1 + У) — б1т(Т/^ + РР) > 0, следовательно неравенство (2.4) действительно выполняется.
Вернемся к построению искомого базиса IV.
• Шаг первый. Рассмотрим минимальное к, для которого IV П
Ф {0}> ЧТО влечет, по свойству (2.4), сбт(РР П Р^) = 1. В качестве ХТ1 выберем единственный ненулевой вектор из Ж П 14.
• Шаг второй. Найдем минимальное /сг, для которого сНт(РР П Ра,.,) > 1, это означает сНт(РР П Ра,) — 2, следовательно, РР П р,2 = {О, ХТ1,ш, 'IV + Хт,}. В качестве ХТ2 из®иш + Хт выберем тот из векторов, у которого В индексе нет j — тах{т), чтобы было выполнено второе условие. Первое условие выполняется: ХТ2 > Хп, так как ХТ2 £ Рт,.
• На 5-ом шаге найдем такое минимальное к3, что сбт(РР П Р/с,) > я — 1, следовательно, сНт(РР П Р4,) = §. Из IV П Р^ = (го3 + {V/ П

Рекомендуемые диссертации данного раздела

Время генерации: 0.139, запросов: 967