+
Действующая цена700 499 руб.
Товаров:60
На сумму: 28.443 руб.

Электронная библиотека диссертаций

Доставка любой диссертации в формате PDF и WORD за 499 руб. на e-mail - 20 мин. 800 000 наименований диссертаций и авторефератов. Все авторефераты диссертаций - БЕСПЛАТНО

Расширенный поиск

Асимптотически нормальное оценивание параметров для класса задач дробно-линейной регрессии

  • Автор:

    Линке, Юлиана Юрьевна

  • Шифр специальности:

    01.01.05

  • Научная степень:

    Кандидатская

  • Год защиты:

    2000

  • Место защиты:

    Новосибирск

  • Количество страниц:

    84 с.

  • Стоимость:

    700 р.

    499 руб.

до окончания действия скидки
00
00
00
00
+
Наш сайт выгодно отличается тем что при покупке, кроме PDF версии Вы в подарок получаете работу преобразованную в WORD - документ и это предоставляет качественно другие возможности при работе с документом
Страницы оглавления работы

СОДЕРЖАНИЕ
Введение
Глава 1. Одномерная задача дробно-линейной регрессии
1.1 Описание модели и построение оценок
1.2 Основные результаты
1.3 Некоторые обобщения
1.4 Доказательства свойств оценки в*
1.5 Доказательства свойств оценки в**
1.6 Комментарии
Глава 2. Общая задача дробно-линейной регрессии
2.1 Постановка задачи
2.2 Построение оценок неизвестного параметра
2.3 Состоятельность и асимптотическая нормальность
2.4 Улучшение оценок
2.5 Оптимизация оценок
2.6 Некоторые частные случаи
2.7 Следствия для независимых наблюдений
2.8 Комментарии
Глава 3. Уравнение Михаэлиса — Ментен
3.1 Постановка задачи
3.2 Построение оценок
3.3 Оптимизация оценок
3.4 Условия состоятельности и асимптотической нормальности
3.5 Доказательства теорем 3
3.6 Доказательства теоремы 3.6 и следствия
3.7 Комментарии
Литература

ВВЕДЕНИЕ
Регрессионный анализ — один из наиболее широко распространенных статистических методов, использующийся при построении математической зависимости на основе экспериментальных данных. Трудно перечислить все сферы человеческой деятельности, где применение метода было плодотворным.
Родоначальником регрессионного анализа принято считать К.Гаусса. На рубеже XVIII и XIX столетий К.Гаусс (и независимо от него А.Лежандр) заложили основы метода наименьших квадратов (МНК). Поводом для создания этого метода, составляющего математическую основу регрессионного анализа, послужили актуальные проблемы астрономии, а затем и геодезии. Усилиями поколений ученых многих стран была развита теория, ставшая теперь классической. При столь долгой истории регрессионного анализа можно было бы ожидать, что он давно полностью изучен, остановился в своем развитии и перестал интересовать специалистов. Но это далеко не так: достаточно взглянуть на публикации в статистических журналах за последние 10-15 лет чтобы увидеть, что и в настоящее время регрессионный анализ развивается достаточно интенсивно.
Примерно 150 лет, до середины XX века, длился классический период регрессионного анализа. К алгебраической процедуре минимизации квадратичной формы, представляющей, собственно, метод наименьших квадратов, добавляется некоторая фиксированная система статистических постулатов, задающих математическую модель. В частности, в классическом регрессионном анализе предполагается, что измеряемые в результате эксперимента переменные — это некоррелированные нормально распределенные случайные величины с одинаковыми дисперсиями. Но со временем возникают все более сложные задачи, в которых исходные предпосылки классического регрессионного анализа выполняются далеко не всегда. Таким образом происходит пересмотр довольно жестких базовых предпосылок классического регрессионного анализа. Отказ хотя бы от одного из классических предположений фактически приводит к созданию новой модели. А последствия отказа сразу от нескольких предположений во многих случаях не исследованы. К тому же у каждого из базовых предположений есть не одна альтернатива, а целый спектр возможностей.
Заметим, что до последнего времени только в случае линейной регрессии

применение метода наименьших квадратов было относительно простой задачей, поскольку только в этом случае поиск то-мерной асимптотически нормальной оценки сводится к решению системы из т линейных уравнений с известными постоянными коэффициентами.
Однако содержательные, физические модели, как правило, нелинейны по параметрам. Методология их создания составляет один из интенсивно развивающихся и заслуживающих особого внимания раздел регрессионного анализа — нелинейный регрессионный анализ. Но при решении задач нелинейной регрессии возникает целый ряд новых существенных трудностей — как идейных, так и технических. В частности, в этом случае уже невозможно в общем виде указать формулу для оценок метода наименьших квадратов. В итоге для оценивания параметров нелинейных моделей зачастую приходится прибегать итерационным методам, что, в свую очередь, порождает массу проблем, связанных с выбором начального значения, исследованием сходимости процесса и свойств построенных таким образом оценок.
Некоторые функции регрессии с помощью преобразования переменных поддаются линеаризации относительно своих параметров. Тогда параметры регрессии исходных функций находят путем обратных преобразований. Линеаризация связей дает возможность применять для нахождения оценок параметров метод наименьших квадратов, однако полученные оценки параметров исходных функций могут, к сожалению, не обладать свойствами МНК-оценок (например, свойством несмещенности).
Несмотря на огромное число публикаций по нелинейному регрессионному анализу, строгой теории нелинейной регрессии пока нет и продолжается активное развитие многих направлений этой области математической статистики.
В настоящей работе предложен и обоснован некоторый новый метод, позволяющий на первом шаге достаточно просто находить явные, асимптотически нормальные оценки параметров в специальном классе задач нелинейной регрессии, которые мы будем называть задачами дробно-линейной регресии. А именно, предложенный метод позволяет находить т-мерные асимптотически нормальные оценки как решения системы из т линейных уравнений с известными, специально подобранными коэффициентами, зависящими от наблюдений. При наличии некоторой информации о поведении дисперсий наблюдений, предложен способ нахождения асимптотически нормальных оценок и с асимптотически минимальной матрицей ковариаций. В качестве этих тп-мерных

Теорема 2.2. Пусть выполнено условие (2.16) и
иСХтА-1 4 I,
(2.18)
при некоторой невырожденной случайной или неслучайной матрице А. Тогда
Замечание 2.2. В приведенных выше утверждениях напрашивается положить А = иСЛт. В этом случае условие (2.20) следствия 2.1 будет выполнено автоматически. Именно так мы будем поступать ниже, в следствии 2.5 и теореме
условие (2.18) проверяется элементарно. Это иногда имеет смысл (см. ниже замечание 2.13).
Замечание 2.3. Отметим, что оценка 9* может удовлетворять предположениям теоремы 2.2, но не быть состоятельной. Соответствующий пример, напомним, построен в замечании 1.6.
В п.2.7, для случая независимых наблюдений, будут приведены простые достаточные условия, гарантирующие выполнение всех приведенных выше условий.
2.3.3. Перейдем к доказательствам приведенных утверждений. Нам потребуется
Лемма 2.1. Пусть т-мерный случайный вектор (ду удовлетворяет условию
А(6* — в) =* Фт(0,1).
(2.19)
Следствие 2.1. Пусть выполнено условие (2.16) и
иСАтА-1 4 I, иСФтА‘1 4 0.
(2.20)
(2.21)
Тогда справедливо утверждение (2.19) теоремы 2.2.
Следствие 2.2. Пусть утверждение (2.19) теоремы 2.2 справедливо для некоторой неслучайной матрицы А. Тогда
(АТАУ'в*-в) =* Фт(0,1).
2.6. В теореме 2.2 проще всего взять А = иСХт, поскольку в этом случае
(2.22)

Рекомендуемые диссертации данного раздела

Название работыАвторДата защиты
Системы обслуживания с возможностью неприсоединения к очереди Белорусов, Тимофей Николаевич 2011
Асимптотические свойства смесей вероятностных распределений Кокшаров, Сергей Николаевич 2007
Стохастические актуарные модели, учитывающие перестрахование Ярцева, Дарья Андреевна 2011
Время генерации: 0.211, запросов: 1887