Isbn 978-5-7262-1377 нейроинформатика 2011
Вид материала | Документы |
СодержаниеКлючевые слова Обучение линейного слоя RBFNN методом сопряженных Решение эллиптических краевых задач |
- Isbn 978-5-7262-1377 нейроинформатика 2011, 136.96kb.
- Isbn 978-5-7262-1377 нейроинформатика 2011, 143.59kb.
- Isbn 978-5-7262-1377 нейроинформатика 2011, 97.16kb.
- Isbn 978-5-7262-1375 нейроинформатика 2011, 127.94kb.
- Isbn 978-5-7262-1375 нейроинформатика 2011, 25.66kb.
- Isbn 978-5-7262-1375 нейроинформатика 2011, 105.62kb.
- Isbn 978-5-7262-1226 нейроинформатика 2010, 142.85kb.
- Isbn 978-5-7262-1376 нейроинформатика 2011, 103.58kb.
- Isbn 978-5-7262-1375 нейроинформатика 2011, 79.42kb.
- Isbn 978-5-7262-1226 нейроинформатика 2010, 136.25kb.
ISBN 978-5-7262-1377-4. НЕЙРОИНФОРМАТИКА – 2011. Часть 3
Е.В. АРТЮХИНА, В.И. ГОРБАЧЕНКО
Пензенский государственный педагогический университет им. В. Г. Белинского
gorvi@mail.ru
МЕТОД СОПРЯЖЕННЫХ ГРАДИЕНТОВ ДЛЯ ЗАДАЧИ НАИМЕНЬШИХ КВАДРАТОВ И ЕГО ПРИМЕНЕНИЕ
ДЛЯ ОБУЧЕНИЯ ВЕСОВ РАДИАЛЬНЫХ БАЗИСНЫХ НЕЙРОННЫХ СЕТЕЙ ПРИ РЕШЕНИИ ДИФФЕРЕНЦИАЛЬНЫХ УРАВНЕНИЙ
В ЧАСТНЫХ ПРОИЗВОДНЫХ1
Разработан модернизированный алгоритм обучения весов радиальных базисных нейронных сетей при решении дифференциальных уравнений в частных производных. Экспериментально показано, что данный алгоритм позволяет сократить время решения задачи по сравнению с алгоритмом сопряженных градиентов для минимизации квадратичного функционала.
Ключевые слова: радиальные базисные нейронные сети, метод сопряженных градиентов, метод наименьших квадратов
Введение
В последнее десятилетие в области решения краевых задач математической физики появилось перспективное направление, связанное с применением радиальных базисных нейронных сетей [1, 2, 3].
В работах авторов [4] разработан и исследован алгоритм обучения весов RBFNN на основе метода сопряженных градиентов, минимизирующий квадратичный функционал ошибки. Данный алгоритм обладает высокой вычислительной эффективностью, позволяет сократить время решения задачи на порядок по сравнению с методом доверительных областей, сокращение времени более значимое по сравнению с методом скорейшего спуска и градиентным методом с подбираемым коэффициентом обучения для весов.
Многие практически чрезвычайно важные классы реальных задач описываются как краевые задачи математической физики для неоднородных и нелинейных сред, например, реальная задача фильтрации нефти в неоднородном пласте [5]. Решение таких задач на RBFNN до настоящего времени не рассматривалось.
Целью данной работы является разработка и исследование модернизированного алгоритма обучения весов RBFNN для решения краевых задачи математической физики для неоднородных и нелинейных сред.
Обучение линейного слоя RBFNN методом сопряженных
градиентов для задачи наименьших квадратов
Рассмотрим обучение на примере уравнения Пуассона
![](images/187146-nomer-m5519b7a6.gif)
![](images/187146-nomer-m7fb8b854.gif)
где
![](images/187146-nomer-1bf04174.gif)
![](images/187146-nomer-m253611d8.gif)
![](images/187146-nomer-129cc4d0.gif)
![](images/187146-nomer-m4c45a722.gif)
RBFNN выступает аппроксиматором функции решения
![](images/187146-nomer-50890fdb.gif)
где
![](images/187146-nomer-m6565eb31.gif)
![](images/187146-nomer-17499ed3.gif)
![](images/187146-nomer-m68e840aa.gif)
![](images/187146-nomer-5c0b4eaa.gif)
![](images/187146-nomer-m46eab73a.gif)
![](images/187146-nomer-36fe91be.gif)
![](images/187146-nomer-m51dadd4d.gif)
Обучение сети сводится к настройке векторов параметров RBFNN
![](images/187146-nomer-51f91901.gif)
![](images/187146-nomer-m5d1a6a27.gif)
где
![](images/187146-nomer-42e2284e.gif)
![](images/187146-nomer-m2e01254d.gif)
![](images/187146-nomer-330a0602.gif)
![](images/187146-nomer-m12a1f7cf.gif)
![](images/187146-nomer-93b9854.gif)
![](images/187146-nomer-7742b473.gif)
где
![](images/187146-nomer-5ac49932.gif)
![](images/187146-nomer-3d776707.gif)
![](images/187146-nomer-237d0e8b.gif)
![](images/187146-nomer-1d9dd9b.gif)
![](images/187146-nomer-me7542a3.gif)
![](images/187146-nomer-m48480f52.gif)
![](images/187146-nomer-m7a3fb1cb.gif)
![](images/187146-nomer-6cc4eab1.gif)
![](images/187146-nomer-7bde09bb.gif)
![](images/187146-nomer-m24ab837.gif)
![](images/187146-nomer-79f6c7ad.gif)
![](images/187146-nomer-6e53e747.gif)
![](images/187146-nomer-5aa24dd1.gif)
Очевидно, что задача обучения RBFNN представляет собой нелинейную задачу наименьших квадратов [6, 7]. Вектор весов
![](images/187146-nomer-m7a3fb1cb.gif)
![](images/187146-nomer-m3ab6d419.gif)
где
![](images/187146-nomer-m264f99c.gif)
![](images/187146-nomer-43cd954c.gif)
![](images/187146-nomer-6bbe0d0e.gif)
Функционал, используемый в линейном методе наименьших квадратов, содержит симметричную положительно определенную матрицу Грама. В случае обучения RBFNN для решения краевых задач получаем матрицу
![](images/187146-nomer-m55280e2f.gif)
Алгоритм минимизации квадратичного функционала эквивалентен решению системы линейных алгебраических уравнений
![](images/187146-nomer-m5508e6d3.gif)
![](images/187146-nomer-m45cbb08.gif)
Известно, что обучение RBFNN является плохо обусловленной задачей [8]. Модифицируем метод сопряженных градиентов минимизации функционала , основываясь на идеях метода сопряженных градиентов для метода наименьших квадратов (CGLS – Conjugate Gradient Method for Least-Squares) [7, 9].
За основу возьмем алгоритм метода сопряженных градиентов, минимизации квадратичного функционала [4], формально заменив матрицу
![](images/187146-nomer-6bbe0d0e.gif)
![](images/187146-nomer-m12132ff1.gif)
![](images/187146-nomer-24893892.gif)
![](images/187146-nomer-357c45b0.gif)
![](images/187146-nomer-m12132ff1.gif)
![](images/187146-nomer-m2c17cfa7.gif)
Учтем также свойство скалярных произведений:
![](images/187146-nomer-m4224f326.gif)
![](images/187146-nomer-m1b49048a.gif)
![](images/187146-nomer-3eeaeb17.gif)
![](images/187146-nomer-76e78ed4.gif)
![](images/187146-nomer-m6cec863a.gif)
Тогда метод сопряженных градиентов минимизации функционала примет вид.
На "нулевой" итерации выполняются подготовительные действия:
1. Полагается
![](images/187146-nomer-m2609b39e.gif)
2. По заданному начальному приближению весов
![](images/187146-nomer-49eaabf6.gif)
![](images/187146-nomer-m6fc476ed.gif)
![](images/187146-nomer-m6995a469.gif)
![](images/187146-nomer-m70af9d65.gif)
3. В качестве направления движения выбирается
![](images/187146-nomer-7bc73c5f.gif)
На первой и следующих итерациях выполняются следующие действия:
4. Вычисляется номер текущей итерации
![](images/187146-nomer-mdaf1599.gif)
5. Находится новое приближение решения
![](images/187146-nomer-1a30041f.gif)
![](images/187146-nomer-m3c649fd.gif)
6. Вычисляются новые невязки
![](images/187146-nomer-62852301.gif)
![](images/187146-nomer-m3d4b4638.gif)
![](images/187146-nomer-m5bf39cdc.gif)
7. Проверяется условие окончания итерационного процесса, например,
![](images/187146-nomer-2b6f74e5.gif)
8. Определяется новое направление движения
![](images/187146-nomer-5d14eb8e.gif)
где
![](images/187146-nomer-m6f6a4c81.gif)
9. Переход на шаг 4.
10. Конец алгоритма.
Экспериментальное исследование проводилось на примере модельной задачи , для
![](images/187146-nomer-4d8d8bb3.gif)
![](images/187146-nomer-m13b46043.gif)
![](images/187146-nomer-12fc26c1.gif)
![](images/187146-nomer-m502537b8.gif)
![](images/187146-nomer-6fd14bae.gif)
![](images/187146-nomer-3203bb9b.gif)
![](images/187146-nomer-m69165d48.gif)
Рис. 1. Сравнение алгоритмов
Эксперименты проводились при следующих условиях. Число нейронов равно 64. Число внутренних контрольных точек равно 100, число граничных контрольных точек равно 124. Нейроны первоначально располагались на квадратной сетке, включающей область решения и один слой законтурных точек. Контрольные точки располагались случайным образом равномерно внутри области решения, на каждой стороне границы и в углах области. В процессе исследования приведенных алгоритмов получены следующие результаты: достигнуто значение относительной среднеквадратической погрешности решения 0,0005, что лучше, чем 0,005 в [1], абсолютная погрешность по сравнению с аналитическим решением не превышает 0,00003.
В процессе исследования разработанного алгоритма получены следующие результаты в сравнении с алгоритмом сопряженных градиентов для минимизации квадратичного функционала.
Результаты экспериментов показывают, что разработанный алгоритм превосходит по эффективности алгоритм сопряженных градиентов для минимизации квадратичного функционала обучения весов RBFNN.
Решение эллиптических краевых задач
в неоднородной середе
Рассмотрим уравнение, описывающее процессы в неоднородной среде, на примере задачи Дирихле для двумерного уравнения эллиптического типа
![](images/187146-nomer-e6e8711.gif)
![](images/187146-nomer-c68bbbd.gif)
Для нахождения
![](images/187146-nomer-m13523d7c.gif)
![](images/187146-nomer-m13523d7c.gif)
![](images/187146-nomer-706f0b79.gif)
где
![](images/187146-nomer-a0a2eb2.gif)
![](images/187146-nomer-18335b40.gif)
![](images/187146-nomer-6cc4eab1.gif)
![](images/187146-nomer-7bde09bb.gif)
![](images/187146-nomer-m604c5c11.gif)
В случае линейной задачи с зависимостью
![](images/187146-nomer-4632f556.gif)
![](images/187146-nomer-m5285e4ef.gif)
Учитывая представление решения в форме и вид базисных функций, получаем:
![](images/187146-nomer-49116d55.gif)
Введем обозначения, невязка во внутренних контрольных точках
![](images/187146-nomer-mbc1c895.gif)
где
![](images/187146-nomer-7153a3a8.gif)
тогда вектор невязки о внутренних контрольных точках имеет вид
![](images/187146-nomer-m21561ef8.gif)
![](images/187146-nomer-5ac49932.gif)
![](images/187146-nomer-3d776707.gif)
![](images/187146-nomer-m7c09abc9.gif)
![](images/187146-nomer-m2e01254d.gif)
Вектор невязки в граничных контрольных точках равен
![](images/187146-nomer-m42fd333a.gif)
![](images/187146-nomer-1d9dd9b.gif)
![](images/187146-nomer-me7542a3.gif)
![](images/187146-nomer-m7973955e.gif)
![](images/187146-nomer-79f6c7ad.gif)
![](images/187146-nomer-6724ef39.gif)
В матрично-векторной формулировке функционал ошибки примет вид:
![](images/187146-nomer-422bb8e3.gif)
Будем использовать градиентный алгоритм обучения для минимизации квадратичного функционала для нахождения весов линейного слоя сети RBFNN. Для обучения нелинейных параметров центров и ширины градиентный алгоритм обучения, приведем формулы для расчета компонентов градиента функционала по параметрам сети. Так как веса входят линейно в функционал ошибки, то для обучения сети можно использовать предлагаемый авторами алгоритм.
Для экспериментального исследования рассмотрим задачу Дирихле для двумерного уравнения эллиптического типа , где
![](images/187146-nomer-b8ecc2e.gif)
![](images/187146-nomer-m5cee5e74.gif)
![](images/187146-nomer-4632f556.gif)
![](images/187146-nomer-7130634d.gif)
![](images/187146-nomer-m2611b2e4.gif)
Экспериментальное исследование проводилось на RBFNN со следующими параметрами: число нейронов
![](images/187146-nomer-77b6cff.gif)
![](images/187146-nomer-m218d5c8d.gif)
![](images/187146-nomer-m1b29bcac.gif)
![](images/187146-nomer-196f69e7.gif)
![](images/187146-nomer-4701929d.gif)
![](images/187146-nomer-1beeb90f.gif)
Решение нелинейных эллиптических краевых задач
математической физики
Рассмотрим решение нелинейной краевой задачи , с зависимостью функции
![](images/187146-nomer-m3d50a7bd.gif)
![](images/187146-nomer-m635316af.gif)
![](images/187146-nomer-6cdd7a81.gif)
Если решать данную задачу рассмотренным ранее методом, то есть путем минимизации функционала ошибки , то веса
![](images/187146-nomer-m4edd125e.gif)
![](images/187146-nomer-m3d50a7bd.gif)
![](images/187146-nomer-6bbaf8b1.gif)
![](images/187146-nomer-m635316af.gif)
Решение данной задачи может быть представлено в виде следующего алгоритма:
- Инициализируется RBFNN.
- Генерируются координаты контрольных точек.
- Вычисляется функция решения .
- Фиксируются значения функции
.
- Производится обучение RBFNN при фиксированном значении
то есть решается задача
где
.
- Рассчитывается функционал ошибки , проверяется условие окончания итерационного процесса, если условие выполнено, то конец итерационного алгоритма, иначе переход на шаг 2.
Для экспериментального исследования разработанного алгоритма решалась модельная задача, отражающая особенности решения основных классов уравнений в частных производных и имеющая аналитическое решение
![](images/187146-nomer-6443c834.gif)
![](images/187146-nomer-6c6e1d10.gif)
где
![](images/187146-nomer-m3d91d156.gif)
![](images/187146-nomer-b8ecc2e.gif)
![](images/187146-nomer-m6e4c45e.gif)
![](images/187146-nomer-98dbf3d.gif)
Разработаны и экспериментально исследованы нейросетевые алгоритмы моделирования физических полей в неоднородных и нелинейных средах. Эксперименты на модельных задачах показали эффективность разработанных алгоритмов.
Заключение
Применительно к обучению весов радиальных базисных нейронных сетей разработан и исследован метод сопряженных градиентов для задачи наименьших квадратов. Экспериментальные исследования при решении дифференциальных уравнений в частных производных, включая эллиптические задачи для неоднородных сред и нелинейные эллиптические задачи, показали его высокую эффективность, что выражается в сокращении времени обучения.
Список литературы
1. Numerical solution of elliptic partial differential equation using radial basis function neural networks / L. Jianyu, L. Siwei, Q. Yingjiana, H. Yapinga // Neural Networks. – 2003. – 16(5/6). – P. 729 – 734.
2. Тархов, Д.А. Нейронные сети. Модели и алгоритмы. – М.: Радиотехника, 2005. – 256 с.
3. Васильев А.Н. Нейросетевое моделирование в математической физике // Нейрокомпьютеры. Разработка и применение. – 2009. № 5. С. 25–38.
4. Артюхин В.В., Артюхина Е.В., Горбаченко В.И. Радиально-базисные нейронные сети для решения краевых задач бессеточными методами // Научная сессия НИЯУ МИФИ-2010. XII Всероссийская научно-техническая конференция «Нейроинформатика-2010»: Сборник научных трудов. В 2-х частях. Ч.2. М.: НИЯУ МИФИ, 2010. С. 237–247.
5. Азиз Х. Математическое моделирование пластовых систем / Х. Азиз, Э. Сеттари. – Ижевск: РХД, 2004. 416 с.
6. Дэннис Дж. Численные методы безусловной оптимизации и решения нелинейных уравнений / Дж. мл. Дэннис, Р. Шнабель. – М.: Мир, 1988. 440 с.
7. Dahlquist G. Numerical Mathematics and Scientific Computation. Vol. 2, 3/ G. Dahlquist, A. Bjoeck. – SIAM, Philadelphia. 1999. 673 p.
8. Хайкин С. Нейронные сети: полный курс. – М.: Вильямс, 2006. 1104 с.
9. Vorst van der, H. Iterative Krylov Methods for Large Linear Systems. – Cambridge: Cambridge University Press, 2003. 232 p.
1 Работа выполнена по тематическому плану научно-исследовательских работ Пензенского государственного педагогического университета, проводимых по заданию Федерального агентства по образованию.
УДК 004.032.26(06) Нейронные сети