Задачи продолжения температурных полей по данным точечных измерений А. Н. Васильев
Вид материала | Документы |
- Программа расчета температурных полей и окисления металла в радиоэлектронных приборах, 1790.99kb.
- Диагностика и методы исследования фазовых и структурных превращений в многокомпонентных, 555.92kb.
- 4 Эффект Рёмера, 409.37kb.
- Фильтрация флюида в скважину с учетом двухтемпературной динамики флюида и матрицы, 29.14kb.
- Автоматизация измерений и контроля, 15.82kb.
- 05. 11. 01 Приборы и методы измерения по видам измерений Формула специальности, 14.1kb.
- Методика устанавливает: условия выполнения измерений; требования к методам и средствам, 262.56kb.
- Задачи дисциплины: ознакомление с областями и видами измерений физических величин, 24.81kb.
- Программа вступительного экзамена по специальной дисциплине специальности 6N0732-стандартизация,, 36.1kb.
- Рабочей программы дисциплины Метрология, стандартизация и сертификация по направлению, 29.94kb.
О нейросетевом поДходЕ
к регуляризации решения
задачи продолжения
температурных полей
по данным точечных измерений
А.Н.Васильев, профессор ФМФ СПбГПУ, a.n.vasilyev@gmail.com
Д.А.Тархов, профессор ФМФ СПбГПУ, dtarkhov@gmail.com
Общая методика работы с моделями, основанными на дифференциальных уравнениях в частных производных [1-3], применяется к известной некорректной задачи, решение которой стандартными подходами затруднено. Поясним суть нейросетевого подхода авторов на примере простейшей краевой задачи

здесь





Ищем приближённое решение задачи (1) в виде выхода нейронной сети некоторой заданной архитектуры

веса которой – линейно входящие параметры




Здесь




Предложенная методика позволяет работать не только с простейшими краевыми задачами – ее можно модифицировать и для нестационарных задач: на примере уравнения теплопроводности для струны применим ее к эволюционным задачам и некоторым некорректным задачам.
Пусть





Решение прямой задачи, как и других подобных задач, можно искать в виде нейросетевого разложения

параметры которого настраиваются на основе минимизации функционала ошибки, взятого в форме

Формально начально-краевые условия позволяют искать решение задачи «назад»: определить


В качестве другого примера некорректной задачи приведем задачу продолжения нестационарных полей по приближенно известным данным точечных измерений. А.А. Самарский и П.Н. Вабищевич [4] строили регуляризацию решения такой задачи посредством восстановления начальных условий (при заданных краевых условиях) по набору точечных данных (задача управления). При предлагаемом нейросетевом подходе решение как прямой, так и обратной задачи строится единообразно.
Перейдем к решению обратной задачи. Заменим начальное условие соотношениями





Приближённое решение этой задачи ищем, как и ранее, в виде нейросетевой функции, имеющей, к примеру, тот же (или аналогичный приведенному) вид


Процесс обучения нейронной сети основан, как и ранее, на минимизации функционала ошибки, взятого, например, в виде

где



Отметим, что в этой простой задаче при определенном выборе типа нейроэлементов (например, гауссианов) было получено и явное относительно настраиваемых параметров, хотя и очень громоздкое выражение для функционала ошибки. Использование подобных явных формул для функционала, несомненно, ускоряет процесс обучения сети. Но в данном случае при проведении вычислений при оптимизации применялся общий подход.
В качестве модельного (определяемого в подобной постановке) решения использовалась функция








В качестве приближенного решения рассматривалась нейросеть из





Результаты вычислений для значений





Рис.1. График решения








Приведем также результаты вычислений для





Рис.5. График решения




Рис.7. График решения




Вид исходного решения отслежен, оно восстанавливается с ошибкой

Исследовались разные варианты инициирования начальных значений параметров обучаемой нейросети – результат оказался ожидаемым: чем ближе исходная ненастроенная сеть к искомому решению, тем быстрее (за меньшее число эпох обучения) выстраивается приближенное нейросетевое решение задачи данной точности, но неудача в выборе начального приближения может быть скомпенсирована достаточно большим количеством итераций; увеличение




В случае линейных задач возможны и другие подходы к обучению нейросетей: например, метод интегральных представлений [1]. При таком подходе используются нестандартные нейросетевые базисные элементы – решения, которые порождены нейросетевыми разложениями данных Коши при




Рис. 9. Аппроксимация данных Коши при втором подходе (

При этом подходе в функционале ошибки имеются лишь слагаемые для данных Коши и краевых условий. Качество приближения при этом частном подходе весьма хорошее.
Построенное таким образом нейросетевое приближение для решения задачи можно рассматривать как его регуляризацию. Аналогичный подход можно применить и к другим некорректным задачам такого рода. Подобные построения могут быть сделаны для выделения множеств решений интегральных уравнений, интегро-дифференциальных и иных уравнений, при этом в полной мере могут быть использованы преимущества нейросетевого подхода в случае задач со сложной геометрией, с нелинейностями, с кусочными данными, при решении серии задач с уточняемой постановкой и др. Рассмотрение указанного примера лишь несколько упрощает проведение численного эксперимента, но нисколько не умаляет общность предлагаемого метода.
Несомненный интерес может представлять
- сравнительный анализ использования различных нейросетевых функциональных базисов (в частности, разнородных),
- использование нестандартных нейросетевых базисных элементов (например, решений, порожденных нейросетевыми разложениями данных Коши и т.п.),
- применение эволюционных алгоритмов и естественного распараллеливания задачи для одновременной настройки весов и структуры нейронных сетей подобно тому, как это делалось в работах авторов [6-7],
- рассмотрение других подходов и соответствующих им алгоритмов при настройке нейросетевого функционального базиса, например, методов минимизации функционала ошибки, применявшихся в работах [9-10].
Литература
1. Васильев А.Н. Построение приближенных математических моделей распределенных систем на основе нейросетевой методологии// «Нейрокомпьютеры»: разработка, применение. – М.: Радиотехника, 2007. – №9. – С.103-116.
2. Васильев А.Н., Тархов Д.А. Нейронные сети как новый универсальный подход к численному решению задач математической физики // «Нейрокомпьютеры»: разработка, применение. – 2004. – №7-8. – С.111-118.
3. Васильев А.Н., Тархов Д.А. Применение нейронных сетей к неклассическим задачам математической физики// Сборник докладов Международной конференции по мягким вычислениям и измерениям – SCM'2003. – СПб., 2003. – Том 1. – С.337-340.
4. Самарский А.А., Вабищевич П.Н. Численные методы решения обратных задач математической физики. – М.: Едиториал УРСС, 2004. – 480 с.
5. Тархов Д.А. Нейронные сети: модели и алгоритмы. Кн.18. – М.: Радиотехника, 2005. – 256 с.
6. Васильев А.Н., Тархов Д.А. Некоторые эволюционные подходы к нейросетевому решению задач математической физики// Сборник научных трудов VIII Всероссийской научно-технической конференции «Нейроинформатика-2006». – Москва, МИФИ, 2006. – Часть 1. – С.24-31.
7. Васильев А.Н., Тархов Д.А. Эволюционные алгоритмы решения краевых задач в областях, допускающих декомпозицию (NPNJ-2006)// Математическое моделирование. – 2007. – Том 19, №12. – С.52-62.
8. Galperin E., Zheng Q., Solution and control of PDE via global optimization methods// Computers & Mathematics with Applications. – Pergamon Press Ltd. – 1993. – Vol. 25, No. 10/11. – pp. 103-118.
9. Galperin E.A., Kansa E.J. Application of global optimization and radial basis functions to numerical solutions of weakly singular Volterra integral equations// Computers & Mathematics with Applications. – Pergamon Press Ltd. – 2002. – Vol. 43. – pp. 491-499.
10. Galperin E.A. The Cubic Algorithm for Optimization and Control// NP Research Publ., Montreal. – 1990.