Доставка любой диссертации в формате PDF и WORD за 499 руб. на e-mail - 20 мин. 800 000 наименований диссертаций и авторефератов. Все авторефераты диссертаций - БЕСПЛАТНО
Нагаев, Ильяс Мансурович
05.13.16
Кандидатская
1996
Уфа
99 с. : ил.
Стоимость:
499 руб.
СОДЕРЖАНИЕ
Введение
1. Классификации при вероятностно-статистическом подходе к распознаванию образов
1.1. Байесовское решающее правило
1.2 Минимаксное решающее правило
1.3. Правило ближайшего соседа
1.3.1 Вероятностно-статистическая модель для правила ближайшего
соседа
1.3.2. Достоинства и недостатки правила ближайшего соседа
2. Классификация в случае неполной информации о вероятностных характеристиках классов
2.1. Первая схема классификации
2.1.1. Общая схема правила
2.1.2. Оценка вероятности ошибки
2.1.3. Сравнение оценок вероятностей ошибок классификации по схеме 1 и по правилу ближайшего соседа
2.2. Вторая схема классификации
2.2.1. Общая схема правила
2.2.2. Оценка вероятности ошибки
2.2.3. Алгоритм формирования группы О, минимизирующий оценку вероятности ошибки
2.2.4. Сравнение оценок вероятностей ошибок классификации по схеме 2 и по правилу ближайшего соседа
2.2.5. Сравнение оценок вероятностей ошибок классификации по схеме 1 и схеме
2.2.6. Использование схемы 2 в случае неполной информации о
вероятностных характеристиках классов
2.2.6.1. Достаточное условие для выполнения неравенства,
используемого на шаге 0 алгоритма Аорт
2.2.6.2. Достаточное условие для выполнения неравенства,
используемого на шаге 2 алгоритма Аорт
2.3. Третья схема классификации
2.3.1. Общая схема правила
2.3.2. Оценка вероятности ошибки
2.3.3. Критерий для формирования группы О
2.3.4. Сравнение схемы 3 со схемой
2.3.5. Сравнение схемы 3 и схемы
3. Примеры практических задач, сводимых к задаче классификации в случае неполной информации о вероятностных характеристиках классов73
Заключение
Литература
Приложение. Экспериментальное сравнение эффективностей схемы 1 и схемы
Введение
Одна из ключевых проблем информатики - разработка, исследование и реализация методов синтеза при помощи обучения алгоритмических процедур преобразования и анализа информации, предназначенных для решения задач, для которых соответствующие алгоритмы неизвестны. Эти методы составляют сердцевину математической теории алгоритмов, кибернетики и информатики. Задачи, требующие использования таких методов, возникают в связи с обработкой и преобразованием на ЭВМ структур, образованных из символов, т.е. структур, представляющих в программах искусственного интеллекта знания о проблемной области в целом и знания, относящиеся к конкретной задаче. Несмотря на универсальность задач, эти методы стали предметом интенсивных исследований, развивались и в конце концов получили оформление в виде нескольких общих математических моделей лишь в рамках одного, хотя и весьма обширного класса задач преобразования и анализа информации -задач распознавания образов.
Во второй половине 50-х годов XX в. начало формироваться новое научное направление, связанное с разработкой теоретических основ и практической реализацией устройств и систем, предназначенных для распознавания объектов, явлений и процессов. Оно получило название "распознавание образов". Название возникло в связи с тем, что процесс распознавания отождествлялся с выяснением вопроса об отнесении распознаваемого объекта к определенному классу объектов (образу), олицетворяющему совокупность (подмножество) объектов, обладающих близкими свойствами.
Таким образом, распознавание представляет собой задачу преобразования входной информации, в качестве которой уместно
2.1.3. Сравнение оценок вероятностей ошибок классификации по схеме 1 и по правилу ближайшего
соседа
Так как наиболее используемым в случае неполной информации о вероятностных характеристиках классов является правило БС, то было бы интересно сравнить оценки вероятности ошибок при классификации по схеме 1 и по правилу БС.
Теорема 1.2.
При неограниченном возрастании объема обучающей выборки
вероятность ошибки классификации по схеме 1 не превышает вероятности
ошибки классификации правила ближайшего соседа.
Доказательство.
Введем в рассмотрение величину К=Р(еБс/х)-Р(е5,/х).
Подставим ранее полученные значения Р(еЕС/х) и Р/х),
определенные, соответственно, (2) и (4), в выражение для Б1:
г т Л (
К= 1-£Р2(зук/х) - 1-р2(№]/Х)-Р(№/х) Р(№|/3)
V к = 1 ) V Г2 Г!
= /х) + Р(те/х)-£Р(те,/х)- £р2(ук /х)
Г2 Г, к
= Р(™/х)-£Р(у1 /х)-£р2(зу; /х)
П Г,
= £ Р, / х) (Р( / х) - P(wi / х))
Так как, по определению, Р(й/х)>Р(м7х) для любого класса из
группы Гь то ЬГР /х)-(Р/х)-Р(лУ( /х))> 0. Причем В=() П
тогда и только тогда, когда вероятности появления классов из группы Г2 при данном х равны, т.е. /у; еГ, Р/х)= Р/х).
Название работы | Автор | Дата защиты |
---|---|---|
Моделирование и разработка помехозащищенных цифровых тропосферных радиолиний с псевдослучайной перестройкой рабочей частоты | Рагузин, Сергей Вячеславович | 1999 |
Экспертная поддержка процессов диагностики и проектирования экологического состояния действующего промышленного предприятия | Томилина, Оксана Александровна | 2000 |
Модель представления смысла текстовой информации | Нагоев, Залимхан Вячеславович | 2000 |