Прогнозировани?це?на рынк?драгоценны?металлов ?помощь?нейронны?сете?/h1>

Дипломная работа - Компьютеры, программирование

Другие диплом?по предмету Компьютеры, программирование



альной инициализаци?весо???функция?предобработк?данных. ?программ?такж?присутствуют средства автоматизированног?анализ?данных, таки?ка? определени?значимости параметров ?обнаружени?выбросов ?обучающе?выборке[19].

?рамках модели рассматриваются цена золота за 3 ме?ца. Нейросет?обучаются по некоторому набору примеров из предметной област??известными входными ?выходным?параметрам?- обучающе?выборк?

Обучающая выборк?была составлена на основе данных, взяты?на официальны?сайтах ЦБ[13] ?инвестиционног?фонда[15]. ?не?были включены таки?основополагающие показатели, ка?индекс?Dow Jones, S&P500, RTS, ММВБ, FTSE100, Nasdaq Composite. Цены на нефт?марк?Brent, доллар ?евро. Инфляция, ставка рефинансирован?, динамика рост?курсов доллар??евро, цены предыдущег?дня на золото. Таки?образо? цену золота ?обучающе?выборк?отражают 15 показателе?

Таблиц?1. Описание входны??выходных параметров

?День недели (1 - понедельни? 2 - вторниктАж 5 - ?тниц??Цена золота?Курс доллараХ4Цена нефт?марк?Brent?Ставка рефинансирован??Индекс ММВБ?Индекс RTS?Индекс Dou Jones?Индекс S&P500?0Индекс FTSE_100?1Курс евро?2Динамика рост?доллар?1 - есть рост, 0 - не?рост??3Динамика рост?евро(1 - есть рост, 0 - не?рост??4Индекс Nasdaq Composite?5ИнфляцияY1Цена золота на следующи?день

Разработанная нейросетев? модель имее?один выходной параметр - цена золота на следующи?день - ег??должна спрогнозироват?обученная нейросет?

?обучающу?выборк?вошл?56 примеров (приложение 1), чт?являет? достаточны?количество?для довольно успешног?обучен? нейросет? Посл?того ка?сформирована обучающая выборк? можн?переходить непосредственн??проектированию сеть ?ее обучению.

2.2 Проектирование нейросет

Уж?известно количество входны??выходных параметров - 15 ?1 соответственно, осталось определить количество скрыты?слое??числ?нейронов ?каждом из ни?

Ка?уж?было сказан??предыдущей глав? изначально можн?взять один промежуточны?слой, ?числ?элементо??не?определить по формул?Арнольда-Колмогоров?- Хехт-Нельсона:

гд?- размерност?выходног?сигнал? - числ?элементо?множеств?обучающи?примеров, - необходимо?числ?синаптически?связе? - размерност?входного сигнал? Сделав необходимы?вычислен?, можн?заключит? чт?необходимо?числ?синаптически?связе? находится ?диапазон?. Необходимо?количество нейронов ?скрыто?слое опреде?ет? по формул? . Таки?образо? числ?нейронов ?скрыто?слое буде??диапазон?. Исследуе?весь диапазон ?выбере?то количество нейронов на скрыто?слое, пр?которо?ошибка обучен? буде?меньше. Возьме?для начала 6 нейронов на скрыто?слое.

Осталось выбрат?активационны?функци?для каждог?сл?. Нейрон?входного ?выходног?сл? отвечают только за ввод ?выво?данных, их функци?можн?оставить линейным? Основн? раiетная нагрузка ложится на нейрон?скрытого сл?, поэтом?ег?активационну?функци?следуе?сделат?сигмоидной.

Ри?2.1. Проектирование сети ?Нейросимуляторе 3.0

Таки?образо? первоначальное проектирование сети завершен? ?можн?приступать ?ег?обучению.

2.3 Обучение ?тестирование нейросет

Обучение. ?помощь?специально?кнопки Загрузит?данные из файл?Excel загружае?обучающу?выборк?из соответствующего файл? Необходимо проследить, чтоб?количество столбцов ?таблиц?Excel строго совпадал?iисло?нейронов на входно??выходном слое. ?данном случае эт?числ?должно быть равным 16 (15 нейронов на вход? 1 - на выходе).

Дале?необходимо выбрат?алгоритм обучен? сети. Для многослойног?персептрон?боле?всег?подходит алгоритм обратног?распространения ошибки. Данный алгоритм имее???недостатко? описанны??предыдущей глав? Чтоб?их избежать, нужн?серьезно подходит??выбору скорости обучен? ?количества эпох - полных циклов пред?влен? полног?набора примеров обучен?.

Пр?очен?маленьки?значен??скорости обучение нейронно?сети буде?проходит?медленно. Пр?очен?больши?ее значен??возникае?вероятность того, чт??момент достижен? минимума функци?ошибки нейронная сеть не сможет попаст??этот миниму??буде?бесконечно долг?прыгат?справа ?слев?от него, производя перераiет?весовы?коэффициенто? Становит? очевидны? чт?динамическое управление величино?скорости обучен? може?серьезно повысить эффективност?обучен? нейронно?сети методо?обратног?распространения ошибки.

Ри?2.2. Обучение сети ?Нейросимуляторе 3.0

Присвоение скорости большего значен? ?момент начала обучен? позволит получить боле?быстро?приближени??област? гд?находится оптимально?множеств?весовы?коэффициенто?

Таки?образо? сначал?нужн?задать достаточно высоку?скорость обучен?. Задади?скорость обучен? - 0,1 ?количество эпох - 5000.

Теперь, когд?загружен?обучающая выборк??заданы параметр?обучен?, можн?начать обучение. Посл?того ка?сеть обучилас? на экране появится график обучен?.

Ри?2.3. График обучен? сети

Посл?обучен?, посмотри?на значимость параметров. Ка?видн?из следующего рисунк?2.4, наиболее значимый параметр для обучаемо?сети - эт?курс доллар?).

Ри?2.4. Значимость входны?параметров для обучаемо?сети

Тестироваи? На этом этап?можн?расiитат?максимальную ошибку обучен?, скопировав ?помощь?специально?функци?пример?из

Copyright © 2008-2014 geum.ru   рубрикатор по предмета?/a>  рубрикатор по типа?рабо?/a>  пользовательское соглашение