Разработка алгоритмов классификации на основе теории распознавания образов и их использование при создании систем автоматизации проектирования в машиностроении

Разработка алгоритмов классификации на основе теории распознавания образов и их использование при создании систем автоматизации проектирования в машиностроении

Автор: Аскеров, Гемдулла Абил оглы

Шифр специальности: 05.13.12

Научная степень: Кандидатская

Год защиты: 1984

Место защиты: Свердловск

Количество страниц: 292 c. ил

Артикул: 3435164

Автор: Аскеров, Гемдулла Абил оглы

Стоимость: 250 руб.

Разработка алгоритмов классификации на основе теории распознавания образов и их использование при создании систем автоматизации проектирования в машиностроении  Разработка алгоритмов классификации на основе теории распознавания образов и их использование при создании систем автоматизации проектирования в машиностроении 

Содержание
Введение
1. Литературный обзор и постановка основных задач Ю
1.1. Анализ некоторых методов обучения распознаванию
образов . Ю
1.2. Использование методов обучения распознаванию образов
для решения технологических задач классификации .
1.3. Постановка задачи исследования .
2. Исследование и совершенствование методов обучения распознаванию образов.
2.1. Модификация метода эвклидова расстояния ..
2.2. Параметрический метод обучения распознаванию образов .
2.3. Метод классификации микрорайонов . .
2.4. Метод корреляционного анализа оценки полезности признаков для , классов.
2.5. Критерий числа разрешаемых споров
2.6. Выводы по главе 2
3. Использование методов обучения распознаванию образов в
САПР горячей штамповки .
3.1. Постановка вопроса.
3.2. Выбор комплекта полезных признаков при определении типа напуска в отверстии детали
3.3. Определение типа напуска в отверстиях деталей различными методами обучения распознаванию образов .
3.4. Выводы по главе 3
4. Применение методов распознавания образов для конструирования оптимальной заготовки .
4.1. Постановка вопроса .
4.2. Алгоритм конструирования оптимальных заготовок для деталей машиностроения .
4.3. Конструирование оптимальных заготовок для типовых
деталей
4.4. Выводы по главе 4
Общие выводы
Литература


Дискретизация проводится таким образом, чтобы объекты из одного класса получили одинаковое дискретное значение. Рассмотрим этот метод на примере обучающей выборки, приведенной в таблице 1. В табл. Коды объектов являются в данном методе точками рассматриваемого пространства признаков. Таблица 1. I. 7,6 6,4 ,0 I. Таблица 1. Л / 2? Таблица 1. Таблица 1. Таблица 1. Хг код значения параметра X, значения • параметра Хг код значения параметра Яг. X, 5 2 7,5<Л*2*8,5 2 = Х$ «,1 2 . Таблица 1. Ку и - количества объектов классов ^ и , попавших в^/—ы точку. Как видно из табл. Используя величину # можно класси-<|ицировать точки пространства следующим образом : если Л > / , то для класса информативность данной точки больше, чем для класса ^>, поэтому точка относится к классу ^ ; если с / , то - к классу . В этом методе стоимость выигрыша (или потери)^? Если в формулах (1. Следует отметить, что этот метод имеет серьезные недостатки. Во-первых, отсутствует алгоритм для перекодировки обучающей выборки, от которого сильно зависят результаты распознавания и который сам является задачей классификации. Во-вторых, проявляется зависимость оценок вероятности /> и ф от количества объектов классов У и Уг . Для ясности рассмотрим следующий случай. Пусть в классе Лг обучающей выборки (табл. Тогда Уг- 9 . Более совершенным методом, использующим структуру обуча-ющеи выборки, является метод комитетов ['7,8^. Д и Лг - обучающие выборки для соответствующих классов. Функция У обычно отыскивается в классе функций следующего вида: /? Г си о {Vя? EJ2J. Этот алгоритм ориентирован на отыскание решающего правила для двух классов. ХУ , выделяющую класс Д2 от классов Ж; ,,0 Лд, и т. Следует подчеркнуть, что система (І. З) не всегда имеет решение. В подобных случаях применяется метод комитетов, описанный в [7,8^ В этом методе вместо понятия решения системы (І. I Лг , в противном случае. Алгоритм обучения для метода комитетов заключается в следующем. Су > >0 ^(І. Из коштета (1. Р . ЭСф^ » где Лу* - ? РЯ ) (1. С ? К=? В отличие от других методов в этом методе имеется возможность дообучения. Иными словами, если к системе (1. Для этого по формуле (1. При добавлении этого неравенства к системе (1. У>0 ). Во всех трех случаях окончательным этапом является расчет по формулам (1. Рассмотрим пример для обучающей выборки, приведенной в табл. Максимально совместные подсистемы состоят из пяти подсистем: в первую подсистему входят: 1,2,3,4,5,6,7,8,9 неравенства; во вторую: 1,2,3,4,5,6,7,8,,,,,; в третью:. Зхт + ? ЗХ< - 4 Хг > Я ЗХ1 - ? Хг >0 -2Х, + *? Таблица 1. I II 3 //. II 6 2, +6'Яг >0 — ,! II 7 7/Я,+ ? Я, + 7Яг>0 —! II 2 2 -2 Я, -2Яг > О —и«. Все объекты обучающей выборки распознаются правильно. На рис. Неотъемлимой частью алгоритмов распознавания образов являются методы определения комплекта полезных признаков. Впервые для определения комплекта полезных признаков был пре дложен многопараметрический метод, основанный на многопараметрическом методе распознавания образов. В этом методе из признаков, вошедших в первичный комплект, создаются различные комплекты по л признаков (М ). Л,, Х2),(Х,,Х3); (Х2, Х3);(Л,,Хг,Х3). Для каждой точки каждого комплекта определяется стоимость выигрыша по формулам (1. Тем самым определяется ценность (стоимость выигрыша) точки в заданном комплекте. Сложив ценности всех точек этого комплекта, получим ценность всего комплекта. После определения ценности всех комплектов сравнивают их между собой. Наилучшим комплектом является тот, который имеет наибольшую ценность. Этот метод не позволяет получить ряд полезности признаков, он не выявляет и не сокращает зависимые признаки, а по объему вычислений равнозначен проведению обучения и распознавания с разными комбинациями признаков. В конце шестидесятых годов появились методы определения полезности признаков, основанные на дисперсионном и корреляционном анализе [э]. Эти методы, как признает и их автор, приемлемы соответственно только для одного или двух классов. Кроме того, в методе корреляционного анализа не учитывается изменение значений признаков внутри одного класса [ю].

Рекомендуемые диссертации данного раздела

28.06.2016

+ 100 бесплатных диссертаций

Дорогие друзья, в раздел "Бесплатные диссертации" добавлено 100 новых диссертаций. Желаем новых научных ...

15.02.2015

Добавлено 41611 диссертаций РГБ

В каталог сайта http://new-disser.ru добавлено новые диссертации РГБ 2013-2014 года. Желаем новых научных ...


Все новости

Время генерации: 0.206, запросов: 244