Банковское дело / Доходы и расходы / Лизинг / Финансовая статистика / Финансовый анализ / Финансовый менеджмент / Финансы / Финансы и кредит / Финансы предприятий / Шпаргалки Главная Финансы Финансы
Д.Э. БЭСТЕНС, В.М. ВАН ДЕН БЕРГ, Д. ВУД. Нейронные сети и финансовые рынки: принятие решений в торговых операциях. - Москва: ТВП,1997. - хх, 236 с., 1997 | |
УПРОЩЕННЫЙ ВАРИАНТ МОДЕЛИ ХЕНОНА |
|
В силу того, что модель Хенона - двумерная, нейронные сети имеют здесь лфору перед одномерными методами типа регрессии. Чтобы устранить эту несправедливость, подставим в уравнение (7) выражение для у, в результате чего получится следующее уравнение: х, = 1 + 0.3 -1.4*^!. (8) 0.9 Теперь мы можем проделать анализ нашей модели стандартными одномерными методами анализа временных рядов, например, методом Бокса-Дженкинса, а затем сравнить результаты с тем, что дает нейронная сеть с единственным входом, на который подаются предыдущие значения переменной. Как и в предыдущем примере, к процессу Хенона мы добавили 10-процентный случайный шум. Временно представим себе, что мы не располагаем никакой информацией, кроме самих числовых данных. Обычно в таких случаях, начертив данные на графике, пытаются применить модель АИМА, т.е. стараются найти закономерности типа авторегрессии или скользящего среднего.7 В табл. 3.4 представлены результаты анализа мето-дом Бокса-Дженкинса для 5 лагов. Лаг Автокорреляция Частная автокорреляция 1 -0.662 -0.662 (-11.513) (-11.513) 2 0.425 -0.0216 (5.393) (-0.0376) 3 -0.359 -0.152 (-4.170) (-2.643) 4 0.212 -0.145 (2.332) (-2.522) 5 -0.0745 0.0630 (0.805) (1.096) Среднее 0.586927 (2.3283) Таблица 3.4. Автокорреляция на обучающих данных для ряда Хенона с шумом Поскольку после четырех лагов (за исключением 2-го) коэффициенты автокорреляции и частной автокорреляции невелики, мы делаем вывод, что метод АЩ4) подходит для этого ряда. Мы делаем про-гноз для второй половины набора данных, исходя из четырех предыдущих значений х. Квадратный корень из среднеквадратичной ошибки (ИМБЕ) прогноза равен 0.3642 . Этот же ряд мы проанализировали с помощью многослойной сети (МВРЫ). Зная вид модели, следовало бы взять сеть с двумя входами, но чтобы сохранить аналогию с четырьмя предыдущими значениями в методе Бокса-Дженкинса, мы выбрали архитектуру 4-2-1. Процесс обучения сети сходился не так хорошо, как в предыдущих двумерных примерах. При этом сходимость улучшалась, когда выбирались маленькие начальные значения весов (случайным образом на отрезке [-0.1,0.1]) и коэффициента обучения (0.1). Обучение прекращалось после 4000 эпох. В этот момент ИМБЕ на пробном отрезке ряда (том же самом, что и в методе АИ(4)) был равен 0.0649 и продолжал уменьшаться. Различие в точности прогноза сетью и линейной моделью оказалось здесь примерно таким же, как и в предыдущих экспериментах. Это хорошо видно на рис. 3.17, где результаты прогноза по обеим моделям сравниваются с точными значениями. Как и следовало ожидать (учитывая, что ряд порожден моделью Хенона), прогноз по модели АИ(4) имеет искажение параболической формы. При внимательном изучении прогноза сети также можно заметить легкую синусоидальную волну вокруг истинных значений. Однако, амплитуда искажения здесь во много раз меньше. 1 0.8 0.6 л о 5 о 0.4 1 X* 0.2 0 -0.2 ж Прогноз АЯ(4) о Прогноз нейронной сети Верный прогноз ^^^ .... V*1/ 0.4 0.2 0.6 1 Л^-истинное 0.8 Рис. 3.17. Прогноз по модели АЯ(4) и по многослойной сети 4-2-1 МВРЫ Взяв 4-мерный вход и не предполагая никаких знаний о модели, мы умышленно имели дело с сетью, содержащей лишние элементы. Как это обстоятельство повлияло на формирование весов в результате обучения сети? Для лучшего понимания вопроса в табл. 3.5 веса обученной сети представлены в сравнении с аналогичными весами двумерной сети (последние указаны в скобках). Веса входов, соответствующих Г - 1 и ? - 2, имеют для 4-лаговой и 2-лаговой моделей один и тот же знак и примерно одинаковую величину (по отношению к порогу). Этот факт, а также малая среднеквадратичная ошибка прогноза 4-2-1 сети на новых образцах говорят об устойчивости характеристик сети при добавлении в нее лишних элементов. Узел 1 2 3 4 5 6 порог (Г-4) (Г-З) (Г-2) ((-1) скрытый скрытый 0.0335819 0.0880925 0.320498 -5.11489 4.46777 (0.35698) (-5.84001) (5.19349) 0.090955 0.404738 0.764702 -7.35403 1.78196 (-1.02628) (-10.7995) (2.66209) 10.3205 -5.84991 -7.05268 Выход (9.10849) (-3.86574) (-6.4816) Таблица 3.5. Веса обученной 4-2-1 (2-2-1) сети для временного ряда Хенона с шумом |
|
<< Предыдушая | Следующая >> |
= К содержанию = | |
Похожие документы: "УПРОЩЕННЫЙ ВАРИАНТ МОДЕЛИ ХЕНОНА" |
|
|