Моделирование и сравнительный анализ процессов распознавания и классификации многомерных объектов пересекающихся классов на основе представлений теории нечетких множеств и нейросетевых технологий

Моделирование и сравнительный анализ процессов распознавания и классификации многомерных объектов пересекающихся классов на основе представлений теории нечетких множеств и нейросетевых технологий

Автор: Кручинин, Илья Игоревич

Шифр специальности: 05.13.17

Научная степень: Кандидатская

Год защиты: 2003

Место защиты: Калуга

Количество страниц: 209 с. ил.

Артикул: 2619133

Автор: Кручинин, Илья Игоревич

Стоимость: 250 руб.

ВВЕДЕНИЕ. МОДЕЛИРОВАНИЕ ПРОЦЕССОВ КЛАССИФИКАЦИИ НА ОСНОВЕ НЕЙРОСЕТЕЙ С ПАРАДИГМОЙ ОБРАТНОГО РАСПРОСТРАНЕНИЯ ОШИБКИ. Обзор состояния современных исследований. Адаптивный алгоритм. Множественный адаптивный алгоритм. Алгоритм сопряженных градиентов. Структура нейросети. Полиномиальные нейросети. Структура нейросети. Алгоритм обучения. Критерий ошибки. Архитектура нейросетевых классификаторов. Полигоны объектов исследования. Моделирование процессов классификации на основе нейросетей с парадигмой обратного распространения ошибки. Влияние структуры нейросети. Нейросети с использованием алгоритма сопряженных градиентов. Выводы по главе 1. Общие положения теории нечетких множеств. Разработка системы распознавания и классификации многомерных объектов пересекающихся классов на основе представлений теории нечетких множеств. Выводы по главе 26
ления поперечных сечений оврага, именно их высокие значения будут обуславливать, в целях плавного уменьшения ошибки, маленький темп изменения весов. В результате этого время продвижения функции ошибки к своему минимуму вдоль оврага может оказаться недопустимо большим см.


Ii, , . Москва, МГТУ им. Н.Э. Москва, МГТУ им. Н.Э. Специфика научнотехнического развития последних десятилетий характеризуется ошеломляющим ростом качественных и количественных показателей вычислительных электронных систем, которые, повсеместно внедряясь в человеческую жизнедеятельность, позволяют создавать новые, уникальные методики и технологии. В их числе особое место занимает нейрокомпьютинг с его многочисленными потенциально возможными применениями, основанными на парадигме параллельных вычислений. Число работ, связанных с нейрокомпьютингом, опубликованных в научной отечественной и зарубежной литературе за последние два десятилетия, превышает десятки тысяч. В связи с этим, в настоящей главе мы ограничимся беглым обзором достаточно общих положений, а в последующих специализированных главах, по мере необходимости, будут проведены более детальные обсуждения известных литературных данных. Самая общая проблема, стоящая перед нейрокомпьютингом может быть сформулирована в нескольких предложениях. Г, которая осуществляет отображение Лп Лт. О о1, о2, . У, т. Рхр ур. Таблица 1. Более обоснованным представляется разделение нейросетей по типу обучения и по типу связей, в этом случае самая общая классификация имеет вид представленный в таблице 1. Без всякого преувеличения можно сказать, что метод обратного распространения ошибки является одним из наиболее мощных и исследованных методов нейрокомпьютинга. Базовый алгоритм данного метода впервые был изложен в году, в работе , однако тогда он не привлек к себе должного внимания. Спустя лет, на рубеже годов, данный метод переоткрывался, по крайней мере, дважды , и получил очень широкое распространение в различных исследовательских школах и группах. В настоящее время существует несколько десятков различных модификаций данного метода и процесс его исследования и модернизации продолжается. Рассмотрим этот ключевой для нейрокомпьютинга метод более подробно. Рис. Развитие в работе знаменитой теоремы А. Л Лп Лт, может быть реализована на основе нейронной сети прямого распространения, содержащей только три слоя причем во входном слое должно быть п нейронов, в выходном т , и в промежуточном слое достаточно иметь п 1 нейронов . Рассмотрим трехслойный персептрон, который осуществляет отображение входного пространства Лп множества входных векторов X Х, Хг, хп, на выходное пространство Лт множество выходных векторов у уь у2, . Числовые коэффициенты веса, связующие Ь,Г узел ВХОДНОГО СЛОЯ су Ь,М узлом скрытого СЛОЯ, обозначим через Нлу , а веса, связующие ый узел скрытого слоя с у ым узлом выходного слоя обозначим через У0 см. Пусть каждый входной вектор х х,, х2, . Уу и У2, Ут В ТО время как истинная неизвестная функция Л Лп Л должна была бы преобразовать вектор д Х, х2, . Тогда задачей метода обратного распространения ошибки является минимизация среднеквадратичной ошибки между желательным выходным вектором I с, , . Веса в каждом узле нейросети должны быть настроены таким образом, чтобы минимизировать эту ошибку. Согласно базовой концепции, каждый нейрон сети, находящийся в скрытом и выходном слоях, должен выполнять взвешенное сложение поступающих на его вход сигналов с последующим преобразованием полученной суммы на основании некоторой функции. Итак, каждый нейрон скрытого слоя преобразует поступающие на его вход
1. Т хь х2, . К . I 1,2,. К некоторая пороговая константа ого нейрона скрытого слоя. В свою очередь все выходные сигналы скрытого слоя служат входными сигналами для нейронов выходного слоя, поэтому для выходных сигналов у уу2. У У 1,2,. После подстановки 1. Е . О 1,2,. Л 1,2,. О.у П. Е . У 1,2,. Р 0 р , я 1,2,. А номер образца из предъявляемого для обучения набора 0м о1, о2, . Соотношения 1. О , необходимые для вычисления весов 1. В самом деле, применение цепного правила дифференцирования сложной функции позволяет записать
1,2,. Л 0 А,
р 1,2,. Алгоритм наискорейшего спуска 1. Е соответствует не яме, а оврагу, возникают проблемы. Эти проблемы обусловлены двумя причинами. Рис. Рис. Рисунки 1.

Рекомендуемые диссертации данного раздела

28.06.2016

+ 100 бесплатных диссертаций

Дорогие друзья, в раздел "Бесплатные диссертации" добавлено 100 новых диссертаций. Желаем новых научных ...

15.02.2015

Добавлено 41611 диссертаций РГБ

В каталог сайта http://new-disser.ru добавлено новые диссертации РГБ 2013-2014 года. Желаем новых научных ...


Все новости

Время генерации: 0.228, запросов: 244