Горбаченко В. И., Артюхина Е. В
Вид материала | Документы |
СодержаниеGorbachenko V.I., Artyuhina E.V. Instruction the scales in radial-basis neural networks for solving boundary problems of mathema |
- И. М. Горбаченко Сибирский государственный технологический университет, 42.08kb.
- Горбаченко В. И., Валиуллова Н. А. Обзор методов контроля знаний, 58.49kb.
- Горбаченко В. И., Егерев Д. Ю. Разностный алгоритм решения коэффициентной обратной, 28.68kb.
- Общие сведения Название направления, 222.63kb.
- В. И. Горбаченко пензенский государственный педагогический университет им. В. Г. Белинского, 75.67kb.
- Автореферат дисертації на здобуття наукового ступеня, 1003.51kb.
- Государственный стандарт союза сср, 1000.02kb.
- «Практика взаимодействия с банковской системой и обеспечения наличными денежными средствами, 119.93kb.
Горбаченко В.И., Артюхина Е.В. Обучение весов радиально – базисных нейронных сетей для решения краевых задач математической физики. // Проблемы информатики в образовании, управлении, экономике и технике: Сб. материалов Междунар. научно-техн. конф.– Пенза: ПДЗ, 2009. – С. 71-74.
ОБУЧЕНИЕ ВЕСОВ РАДИАЛЬНО-БАЗИСНЫХ НЕЙРОННЫХ СЕТЕЙ ДЛЯ РЕШЕНИЯ КРАЕВЫХ ЗАДАЧ
МАТЕМАТИЧЕСКОЙ ФИЗИКИ1
В.И. Горбаченко, Е.В. Артюхина
Пензенский государственный педагогический университет
им. В.Г. Белинского,
г. Пенза, Россия, gorvi@mail.ru
Разработаны градиентные алгоритмы обучения весов радиально-базисной нейронной сети для решения краевых задач математической физики. Экспериментально показано, что алгоритм сопряженных градиентов для минимизации квадратичного функционала позволяет достичь большей точности за меньшее время.
Gorbachenko V.I., Artyuhina E.V. Instruction the scales in radial-basis neural networks for solving boundary problems of mathematical physics.
The gradient algorithms of scales’ teaching the radial-basis neural networks for solving boundary problems of mathematical physics are worked out. It is experimentally shown that the algorithm of conjugate gradients for minimization of quadratic functional permits the achievement of a greater precision for less time.
В настоящее время интенсивно развиваются методы решения ДУЧП
с применением радиально-базисных нейронных сетей (RBFNN) [1]. Целью данной работы является исследование различных алгоритмов обучения весов RBFNN. В качестве модельной задачи для сравнительного анализа с [1] взято уравнение Пуассона
![](images/304431-nomer-68583cac.gif)
![](images/304431-nomer-691656a.gif)
где
![](images/304431-nomer-1fd4c172.gif)
![](images/304431-nomer-7744f5f4.gif)
![](images/304431-nomer-3113aa83.gif)
![](images/304431-nomer-40f5429d.gif)
Выбирая в качестве радиально-базисной функции Гауссиан, определяемый как
![](images/304431-nomer-m506d7376.gif)
![](images/304431-nomer-4eaec537.gif)
![](images/304431-nomer-m532294e.gif)
![](images/304431-nomer-m25e62f49.gif)
![](images/304431-nomer-2988b82.gif)
![](images/304431-nomer-m48b15198.gif)
![](images/304431-nomer-69e9f430.gif)
![](images/304431-nomer-4dee33b3.gif)
![](images/304431-nomer-69e9f430.gif)
Обучение сети сводится к настройке весов, расположения центров и ширины нейронов, минимизирующих функционал качества (функционал ошибки), представляющий собой сумму квадратов невязок в контрольных точках
![](images/304431-nomer-m6de3a3e4.gif)
где
![](images/304431-nomer-1e50de92.gif)
![](images/304431-nomer-m73de7471.gif)
![](images/304431-nomer-m603f4320.gif)
![](images/304431-nomer-m73de7471.gif)
![](images/304431-nomer-m603f4320.gif)
![](images/304431-nomer-m53d4ecad.gif)
![](images/304431-nomer-m2c35d0e9.gif)
![](images/304431-nomer-m5c41de46.gif)
где
![](images/304431-nomer-579043ce.gif)
![](images/304431-nomer-m17fb0d2c.gif)
![](images/304431-nomer-6c6ed67b.gif)
![](images/304431-nomer-m5f42b9ee.gif)
![](images/304431-nomer-md9ccb59.gif)
![](images/304431-nomer-55806bf1.gif)
![](images/304431-nomer-m5ffc4478.gif)
![](images/304431-nomer-m5e8a9d63.gif)
![](images/304431-nomer-m4e43dc34.gif)
![](images/304431-nomer-2f4c3622.gif)
![](images/304431-nomer-6db923b7.gif)
![](images/304431-nomer-3a7d05f6.gif)
![](images/304431-nomer-m70334a25.gif)
![](images/304431-nomer-bd4efe5.gif)
![](images/304431-nomer-69e9f430.gif)
Для обучения выходного слоя сети существенно большую скорость сходимости, чем метод скорейшего спуска, обеспечивает метод сопряженных градиентов, причем он требует всего порядка
![](images/304431-nomer-m782f07fd.gif)
![](images/304431-nomer-m53aa54d5.gif)
Введем обозначения
![](images/304431-nomer-370d8117.gif)
![](images/304431-nomer-m58f25868.gif)
![](images/304431-nomer-md9df17d.gif)
![](images/304431-nomer-m616e292e.gif)
Из видно, что наша задача является задачей минимизации квадратического функционала с симметричной положительно определенной матрицей. Применяя метод сопряженных градиентов [3] для минимизации , получим алгоритм:
1. По заданному начальному приближению весов
![](images/304431-nomer-22fda8cd.gif)
![](images/304431-nomer-m61112ae1.gif)
![](images/304431-nomer-m2791dfe2.gif)
2. Вычисляется номер текущей итерации
![](images/304431-nomer-m261ad027.gif)
3. Находится новое приближение решения
![](images/304431-nomer-m31be7187.gif)
![](images/304431-nomer-m5f8a1363.gif)
4. Вычисляется новая невязка
![](images/304431-nomer-7f069aec.gif)
5. Проверяется условие окончания итерационного процесса
![](images/304431-nomer-555239e4.gif)
6. Определяется новое направление движения
![](images/304431-nomer-m4911c31c.gif)
![](images/304431-nomer-43b49565.gif)
7. Переход на шаг 2.
Из видно, что рассмотренный алгоритм эквивалентен решению системы линейных алгебраических уравнений
![](images/304431-nomer-6e563dcd.gif)
![](images/304431-nomer-md9df17d.gif)
![](images/304431-nomer-m16d7f5df.gif)
![](images/304431-nomer-2417dbe2.gif)
Экспериментальное исследование проводилось на примере модельной задачи для
![](images/304431-nomer-m4718f867.gif)
![](images/304431-nomer-3418780d.gif)
В процессе исследования приведенных алгоритмов получены следующие результаты: достигнуто значение относительной среднеквадратической погрешности решения 0,0005, что лучше, чем 0,005 в [1], абсолютная погрешность по сравнению с аналитическим решением не превышает 0,00003. Алгоритм сопряженных градиентов для минимизации квадратичного функционала позволяет сократить время решения задачи в 6 раз по сравнению с классическим методом сопряженных градиентов, сокращение времени более значимое по сравнению с методом скорейшего спуска и градиентным методом с подбираемым коэффициентом обучения для весов.
Библиографический список
1. Numerical solution of elliptic partial differential equation using radial basis function neural networks / L. Jianyu, L. Siwei, Q. Yingjiana, H. Yapinga // Neural Networks. – 2003. – 16(5/6). – P. 729 – 734.
2. Оссовский С. Нейронные сети для обработки информации. – М. : Финансы и статистика, 2002. – 344 с.
3. Амосов А.А., Дубинский Ю.А., Копченова Н.В. Вычислительные методы. – М. : Изд. дом МЭИ, 2008. – 672 с.
1 Работа выполнена по тематическому плану научно-исследовательских работ Пензенского государственного педагогического университета, проводимых по заданию Федерального агентства по образованию.