Моделирование свойств химических соединений с использованием искусственных нейронных сетей и фрагментных дескрипторов

Моделирование свойств химических соединений с использованием искусственных нейронных сетей и фрагментных дескрипторов

Автор: Баскин, Игорь Иосифович

Год защиты: 2009

Место защиты: Москва

Количество страниц: 365 с. ил.

Артикул: 4741579

Автор: Баскин, Игорь Иосифович

Шифр специальности: 02.00.17

Научная степень: Докторская

Стоимость: 250 руб.

Моделирование свойств химических соединений с использованием искусственных нейронных сетей и фрагментных дескрипторов  Моделирование свойств химических соединений с использованием искусственных нейронных сетей и фрагментных дескрипторов 

Содержание
Введение
Глава 1. Искусственные нейронные сети
1.1. Введение
1.2. Основные принципы нейросстевого моделирования.
1.2.1. Общая терминология
1.2.2. Нейрон МакКаллокаПиттса
1.2.3. Персептрон Розенблатга
1.2.4. Нейросети обратного распространения i.
1.2.5. Другие архитектуры нейронных сетей
1.3. Основные принципы применения искусственных нейронных сетей для прогнозирования свойств химических соедиценй.
1.4. Ограничения искусственных нейронных сетей.
Глава 2. Фрагментные дескрипторы в поиске зависимостей структурасвойство .
2.1. История фрагментньтх дескрипторов.
2.2. Типы фрагментньтх дескрипторов
2.2.1. Классификация по типам молекулярных графов
2.2.2. Классификация по типам молекулярны структур.
2.2.3. Классификация по типам значений дескрипторов
2.2.4. Класификация по типам дескрипторных наборов.
2.2.5. Классификация по связности фрагментов.
2.2.6. Классификация по уровням детализации молекулярных графов
2.2.7. Фрагментные дескрипторы с выделенными атомами
2.3. Ограничения фрагментньтх дескрипторов
Глава 3. Математическое обоснование выбранного подхода
3.1. Химическая значимость поиска базиса инвариантов помеченных графов
3.2. Две основные теоремы о базисе инвариантов графов.
3.3. Теоретические основы сочетания искусственных нейронных сетей и
фрагментных дескрипторов
Глава 4. Разработка нейросетевых подходов.
4.1. Подход к решению проблемы переучивания нейронных сетей.
4.1.1. Суть эффекта переучивания нейросетей.
4.1.2. Методы предотвращения переучивания нейросетей
4.1.3. Трехвыборочный подход
4.1.4. Процедура двойного скользящего контроля
4.1.5. Быстрая пошаговая множественная линейная регрессия.
4.2. Подход к интерпретации нейросетевых моделей
4.3. Концепция обучаемой симметрии
Глава 5. Разработка фрагментных подходов
5.1. Принципы построения и генерации фрагментных дескрипторов.
5.1.1. Типы фрагментов
5.1.2. Иерархическая классификация атомов во фрагментах.
5.1.3. Построение фрагментного дескриптора
5.1.4. Генерация кодов фрагментов с обобщенными типами атомов.
5.1.5. Алгоритм генерации фрагментных дескрипторов
5.2. Примеры прогнозирования физикохимических свойств органических соединений с использованием фрагментных дескрипторов и линейнорегрессионных моделей
5.2.1. Прогнозирование поляризуемости органических соединений
5.2.2. Прогнозирование энтальпий образования алифатических полшштросоединеннй.
5.2.3. Прогнозирование магнитной восприимчивости органических соединений .
5.2.4. Прогнозирование энтальпии парообразования органических соединений .
5.2.5. Прогнозирование энтальпии сублимации органических соединений
5.2.6. Прогнозирование температуры вспышки органических соединений.
5.2.7. Прогнозирование сродства азо и антрахиноновых красителей к
целлюлозному волокну.
5.3. Фрагментные дескрипторы с выделенными атомами.
5.3.1. Прогнозирование химических сдвигов в Р ЯМР спектрах замещенных монофосфинов.
5.3.2. Прогнозирование способности аналогов гидроксиэтоксиметил6фенилтиотимина НЕРТ ингибировать обратную транскриптазу вируса ВИЧ
5.3.3. Прогнозирование констант скорости гидролиза эфиров карбоновых кислот
5.4. Псевдофрагментные подходы. ПАСРЮР. Прогнозирование физических
свойств полимеров.
Глава 6. Сочетание искусственных нейронных сетей и фрагментных дескрипторов.
6.1. Первые свидетельства эффективности совместного использования искусственных нейронных сетей и фрагментных дескрипторов.
6.2. Прогнозирование физикохимических свойств органических соединений с использованием фрагментных дескрипторов и нейросетевых моделей
6.3. Моделирование физических свойств органических жидкостей в рамках процедуры трехвыборочного скользящего контроля.
6.3.1. Общая методология моделирования
6.3.2. Моделирование вязкости органических соединений.
6.3.3. Моделирование плотности жидких органических соединений.
6.3.4. Моделирование давления насыщенных паров
6.3.5. Моделирование температуры кипения разнородных органических
соединений.
6.4. Прогнозирование температуры плавления ионных жидкостей.
Глава 7. Разработка интегрированных подходов
7.1. Совместное применение методологии искусственных нейронных сетей и методов молекулярного моделирования
7.1.1. Предсказание положения длинноволновой полосы поглощения симметричных цианиновых красителей.
7.1.2. Оценка значений констант ионизации для различных классов органических соединений
7.1.3. Моделирование мутагенной активности замещенных пол и циклических нитросоединенин с помощью искусственных нейронных сетей
7.1.4. Прогнозирование констант заместителей с использованием
искусственных нейронных сетей и квантовохимических дескрипторов.
7.2. Корреляции структураусловиясвойство.
7.2.1. Концепция построения нейросетсвых зависимостей структура условия свойство.
7.2.2. Построение и анализ нейросетсвых зависимостей структураусловиесвойство для физикохимических свойств углеводородов.
7.2.3. Построение и анализ нейросетевых зависимостей с труктура условия реакции константы скорости для реакции кислотного гидролиза сложных эфиров карбоновых кислот.
7.3. Индуктивный перенос знаний при интеграции моделей структурасвойство
7.3.1. Многоуровневый принцип построения моделей структурасвойство
7.3.2. Параллельный принцип построения моделей структурасвойство. Многозадачное обучение.
7.4. Нейронное устройство для проведения прямых корреляций структурасвойство
7.4.1. Введение
7.4.2. Описание нейронного устройства
7.4.3. Примеры разных конфигураций нейронного устройства.
7.4.4. Применение нейронного устройства в исследованиях структурасвойство для органических соединений
7.4.5. Выводы
Глава 8. Разработка программных средств
8.1. История разработки программных средств
8.2. Программный комплекс I
8.2.1. Представление химической информации.
8.2.2. Интеграция с программными компонентами, осуществляющими расчет дескрипторов химических структур.
8.2.3. Химическиориентированная визуализация
8.2.4. Модификация дескрипторов и свойств
8.2.5. Предварительный отбор дескрипторов
8.2.6. Построение классификационных моделей структураактивность
8.2.7. Нейросетевые парадигмы
8.2.8. Интерпретация нейросетевьтх моделей.
8.2.9. Отбор дескрипторов в ходе обучения нейросети
8.2 Определение момента начала переучивания нейросети
8.2 Кластеризация баз данных.
8.2 Динамическая визуализация хода обучения нейросети
8.2 Определение области применимости модели
8.2 Химическиориентированный блок прогноза
8.3. Дескрипторный блок .
8.4. Дескрип горный блок
8.5. Автономные прогнозаторы свойств органических соединений.
Выводы.
Литература


Алгоритмы методов сопряженных градиентов требуют не многим больше памяти, чем градиентные алгоритмы, поэтому могут быть использованы для обучения нейронных сетей с большим количеством настраиваемых параметров. Эта группа методов базируется на Ньютоновском методе аппроксимации функций, но не требует вычисления вторых производных. X матрица весовых коэффициентов вектор градиента счетчик итераций 7 матрица вторых частных производных матрица Гессе. Еп1ХХ ,. Iу I д ЕУцХлi,. ИЛОДЛдИД1 V2
где функция i показывает номер нейрона, из которого исходит связь т показывает номер нейрона, в который входит связь т М число связей т. Идея квазиныотоновских методов базируется на возможности аппроксимации кривизны нелинейной оптимизируемой функции без явного формирования ее матрицы Гессе. Сама матрица при этом не хранится, а ее действие аппроксимируется скалярными произведениями специально подобранных векторов. Наиболее удачным методом из этой группы является метод БройденаФлетчераГольдфарбаШанно , согласно которому
где направление, вдоль которого проводится одномерная оптимизация на ой итерации вектор градиента на 1ой итерации. Для квазиныотоновских методов наилучшим алгоритмом поиска вдоль выбранного направления является, повидимому, метод перебора с возвратами , . На первой итерации этот алгоритм использует значения функционала ошибки и его производных, чтобы построить его квадратичную аппроксимацию вдоль направления поиска. Минимум этой аппроксимирующей функции выбирается в качестве приближения к оптимальной точке, в которой оценивается функционал ошибки. Если значение функционала недостаточно мало, то
строится кубическая интерполяция, и ее минимум выбирается в качестве новой оптимальной точки. Этот процесс продолжается до тех пор, пока не будет достигнуто существенное уменьшение функционала ошибки. Метод ЛевснбергаМарквардта ЬМ ЬеуепЬегМаиагск реализует специальный способ аппроксимации матрицы Гессе для случая, когда функционал ошибки определяется как сумма квадратов ошибок, что как раз и имеет место при обучении нейросетей обратного распространения. Якоби производных функционалов ошибки отдельно для каждого выходного нейрона т. Зи. АЛП ,
где функция я показывает номер нейрона, из которого исходит связь тт номер нейрона, в который входит связь т М число связей г. Отсюда видно, что элементы матрицы Якоби легко могут быть вычислены на основе метода обратного распространения ошибки по приведенной выше формуле , что существенно проще вычисления матрицы Гессе. Якоби единичная матрица т. Агой итерации динамически изменяемый по ходу обучения нейросети коэффициент, называемый фактором демпинга. Когда приближается к 0, то метод ЛсвенбергаМарквардта переходит в метод Ньютона с приближением матрицы Гессе в форме , когда же значение велико, то получается метод градиентного спуска с маленьким шагом. Поскольку метод Ньютона имеет большую точность и скорость сходимости вблизи локального минимума по сравнению с методом градиентного спуска, то задача состоит в том, чтобы в процессе минимизации как можно быстрее перейти к методу Ньютона. С этой целью параметр ц уменьшают после каждой успешной итерации т. Метод ЛевенбергаМарквардта в настоящее время является одним из самых эффективных методов по крайней мере, в смысле скорости обучения нейронных сетей обратного распространения, в связи с чем он приобрел большую популярность в области АКРисследований . Тем не менее, у него есть существенный недостаток необходимо, чтобы число объектов химических соединений в обучающей выборке превышало число настраиваемых параметров т. Нейросети Кохонена КоЬопеп , , см. Рис. Нейросеть Кохонена состоит из двух слоев входного и конкурирующего выходного. В каждый нейрон конку рирующего выходного слоя поступают сигналы сразу со всех нейронов входного слоя. Одной из особенностей конкурирующего выходного слоя нейросетей Кохонена является то, что нейроны в нем организованы в виде 2мерной решетки решетки другой размерности для нейросетей Кохонена тоже возможны, но на практике используются редко. Входной
Рис.

Рекомендуемые диссертации данного раздела

28.06.2016

+ 100 бесплатных диссертаций

Дорогие друзья, в раздел "Бесплатные диссертации" добавлено 100 новых диссертаций. Желаем новых научных ...

15.02.2015

Добавлено 41611 диссертаций РГБ

В каталог сайта http://new-disser.ru добавлено новые диссертации РГБ 2013-2014 года. Желаем новых научных ...


Все новости

Время генерации: 0.188, запросов: 121