+
Действующая цена700 499 руб.
Товаров:18
На сумму: 8.982 руб.

Электронная библиотека диссертаций

Доставка любой диссертации в формате PDF и WORD за 499 руб. на e-mail - 20 мин. 800 000 наименований диссертаций и авторефератов. Все авторефераты диссертаций - БЕСПЛАТНО

Расширенный поиск

Оптимизационный подход в задачах математической диагностики

  • Автор:

    Кокорина, Анастасия Владимировна

  • Шифр специальности:

    01.01.09

  • Научная степень:

    Кандидатская

  • Год защиты:

    2004

  • Место защиты:

    Санкт-Петербург

  • Количество страниц:

    119 с. : ил.

  • Стоимость:

    700 р.

    499 руб.

до окончания действия скидки
00
00
00
00
+
Наш сайт выгодно отличается тем что при покупке, кроме PDF версии Вы в подарок получаете работу преобразованную в WORD - документ и это предоставляет качественно другие возможности при работе с документом
Страницы оглавления работы

Список основных обозначений
Глава 1. Ранжирование параметров в задачах обработки данных
1.1. Случай нормально распределенных параметров
1.2. Случай дискретных значений
1.3. Ранжирование произвольных параметров
Глава 2. Методы разделения множеств и их применение
2.1. Метод разделения двух множеств гиперплоскостью
2.2. Результаты ранжирования некоторых баз данных
2.3. Результаты разделения множеств
Глава 3. Применение методов ранжирования и разделения множеств гиперплоскостью к решению задачи прогнозирования эффективности лечения желчнокаменной болезни
3.1. Описание баз данных и постановка задачи
3.2. Базы данных медицинской академии по ЖКБ
3.3. Результаты исследования
Заключение
Литература
Приложение 1. Базы данных, использованные в численных экспериментах
Приложение 2. Результаты ранжирования Багирова
Приложение 3. Программное обеспечение
Список основных обозначений
Я" - конечномерное п-мерное пространство
0 - пустое множество
х = (х хп) є Я" - точка пространства Я"

II х 11= л/2 -*7 _ евклидова норма вектора х
(=і
Если х = (х хл) єі?", то норма Ы этого вектора есть тах|х,|,
Если А е Я" - множество пространства Я”, то | А | - число элементов множества А
Е* - математическое ожидание случайной величины Ак Вк - дисперсия Ак
ак - среднее квадратическое отклонение величины Ак V - квантор всеобщности
1: N - множество натуральных чисел {1,2, ..., Щ Запись А = {а11 /е/} читается так:
А - множество точек а., где / е I, I - индексное множество.
(х, у) - скалярное произведение векторов х и у ехра = еа - экспонента
8.085722е - 006 = 8.085722 х 10‘б (обозначение, используемое в таблицах)
а норма Ь2 - его евклидова норма: || х ||=

Актуальность темы. Многие практически важные задачи, например, задачи распознавания образов, классификации, технической и медицинской диагностики, идентификации, обработки экспериментальных данных, спектрального анализа, могут быть описаны математическими моделями, в которых требуется "отделить" два или более множества. Часто указанные множества "неразделимы". Поэтому возникает задача идентификации как можно большего числа точек этих множеств.
В задачах медицинской диагностики оптимизационный подход к решению этой задачи был предпринят в 30-е годы Р. Фишером [59] (который разработал линейный дискриминантный анализ). В настоящее время эти задачи занимают ведущее место в теории обучающих машин, в задачах искусственного интеллекта. Для решения указанных задач существует несколько подходов (чисто статистический подход [4, 5, 7, 19, 21, 32, 33, 71], метод опорных векторов В.Вапника [9, 57, 77], метод машинного обучения [31,44, 45, 68], метод построения ядра [56, 76], метод обработки данных с помощью линейного программирования [51, 61, 66, 67], кластерный анализ [46, 52, 60, 62, 69]). К сожалению, не существует универсального метода, пригодного для решения всех задач распознавания, идентификации и диагностики. Поэтому, несмотря на наличие богатого арсенала средств для решения задач идентификации и множества успешно решенных практических проблем, интерес к этой тематике не ослабевает. Это объясняется многообразием новых постановок, индивидуальностью сложности реальных задач, необходимостью строить всё более усовершенствованные модели, которые адекватно описывали бы указанные реальные задачи. Вот почему в последние годы многие математики, до этого работавшие в других областях, обратили свое внимание на проблемы диагностики. Так, С. Смейл опубликовал статью в журнале "Bulletin of the American

Замечание 2.3.1. Оптимизация по а проводилась с точностью до 0.01.
База данных Австралийский кредит (Australian credit)
Вначале проводилось разделение гиперплоскостью L(a) — {x | h(x,a) = 0}, где h(x,a) = (х-х0(сс),ЕА -Ев), х0(а) = аЕл + (l-а)Ев, «г 6 [ОД]. При построении гиперплоскости и проверке рассматривались все 100% данных. Результаты представлены в таблице 2.3.1.
Идентификация проводилась несколько раз по разному количеству признаков. Сначала рассматривались два наиболее существенных признака (выбранные в результате ранжирования). Затем, на каждом следующем шаге количество параметров увеличивалось (добавляли в рассмотрение новый признак в порядке уменьшения информативности).
Замечание 2.3.2. Поскольку при ранжировании непрерывных параметров мы полагали, что они подчиняются нормальному закону распределения вероятности, но данный факт не проверяли, результаты нашего ранжирования могут быть неточными. Поэтому, проводя разделение множеств (тестируя предложенные методы идентификации) мы будем выбирать параметры для идентификации, опираясь на результаты ранжирования, которые были получены нами в параграфе 2.2, а также на результаты, предоставленные А.М. Багировым (см. приложение 2).
Применяя наш метод ранжирования, мы получили следующие результаты: 14, 8, 10, 9, 5, 7, 6, 4, 3, 2, 13, 12, 11, 1 - параметры расположены в порядке уменьшения информативности.
Результаты ранжирования Багирова:
> (8,9,10); (7,8,9,10); (5,7,9,8,10); (3,5,7,8,9,10,13,14); (2,3,5,7,8,9,10,13,14); (1-14) в норме L1;
> (7,8,9,10);(7,8,9,10,14);(3,7,8,9,10,14);(3,5,7,8,9,10,14);(3,5,7,8,9,10,11,14); (3,5-11,13,14); (1-11,13,14); (1-14) в норме L2.

Рекомендуемые диссертации данного раздела

Время генерации: 0.164, запросов: 1254