Прогнозировани?це?на рынк?драгоценны?металлов ?помощь?нейронны?сете?/h1>

Дипломная работа - Компьютеры, программирование

Другие диплом?по предмету Компьютеры, программирование



чающую пару из обучающего множеств? подать входно?вектор на вход сети.

3.Вычислит?выхо?сети.

4.Вычислит?разность межд?выходо?сети ?требуемы?выходо?(целевы?вектором обучающе?пары).

.Подкорректироват?веса сети для минимизаци?ошибки.

.Повторять шаги ?2 по 5 для каждог?вектор?обучающего множеств?до те?по? пока ошибка на всем множеств?не достигне?приемлемог?уров?.

Алгоритм обратног?распространения ошибки осуществ?ет та?называемый градиентны?спус?по поверхност?ошибок. Не углубляясь, эт?означает следующе? ?данной точк?поверхност?находится направлени?скорейшего спуска, зате?делает? прыжок вниз на расстояни? пропорциональное коэффициенту скорости обучен? ?крутизне склона, пр?этом учитывается инерция, то есть стремление сохранит?прежне?направлени?движен?. Можн?сказат? чт?мето?веде?се? ка?слепой кенгур?- каждый ра?прыгае??направлени? которо?кажется ем?наилучши? На само?деле ша?спуска вычисляет? отдельно для всех обучающи?наблюдений, взяты??случайно?по?дк? но ?результате получает? достаточно хорошая аппроксимация спуска по совокупной поверхност?ошибок.

Несмот? на достаточну?простоту ?применимость ?решени?большого круг?зада? алгоритм обратног?распространения ошибки имее???серьезны?недостатко? Отдельно стои?отметить неопределенн?долгий процес?обучен?. ?сложны?задача?для обучен? сети могу?потребоваться дн?ил?даже недели, ?иногда он?може??вообще не обучиться. Эт?може?произойт?из-за следующи?нижеописанны?факторов.

1. Парали?сети. ?процессе обучен? сети, значен? весо?могу??результате коррекци?стат?очен?большими величинами. Эт?може?привести ?тому, чт?вс?ил?большинств?нейронов буду?выдавать на выходе сети больши?значен?, гд?производная функци?активаци?от ни?буде?очен?мала. Та?ка?посылаем? обратн??процессе обучен? ошибка пропорциональн?этой производно? то процес?обучен? може?практическ?замереть. ?теоретическо?отношени?эт?проблема плох?изучен? Обычно этог?избегают уменьшение?размер?шага (скорости обучен?), но эт?увеличивае?время обучен?. Различны?эвристик?использовались для предохранения от паралича ил?для восстановлен? посл?него, но пока чт?он?могу?рассматриваться лишь ка?экспериментальны?

. Локальны?минимумы. Ка?говорилось вначал? алгоритм обратног?распространения ошибки использует разновидност?градиентного спуска, ? ? осуществ?ет спус?вниз по поверхност?ошибки, непрерывно подстраивая веса ?направлени??минимуму. Поверхност?ошибки сложно?сети сильно изрезана ?состои?из холмов, доли? складо??овраго??пространстве высоко?размерност? Сеть може?попаст??локальны?миниму?(неглубокую долину), когд??до?имеется боле?глубокий миниму? ?точк?локального минимума вс?направления веду?ввер? ?сеть неспособна из него выбраться. Статистические методы обучен? могу?помочь избежать этой ловушк? но он?медленны.

. Размер шага. Алгоритм обратног?распространения ошибки имее?доказательство свое?сходимости. Эт?доказательство основывает? на то? чт?коррекция весо?предполагает? бесконечно мало? Ясно, чт?эт?неосуществим?на практике, та?ка?веде??бесконечному времен?обучен?. Размер шага должен браться конечным, ??этом вопрос?приходит? опираться только на опыт. Если размер шага очен?ма? то сходимость слишко?медленная, если же очен?вели? то може?возникнуть парали?ил?пост?нн? неустойчивость.

. Временная неустойчивость. Если сеть учит? распознавать букв? то не?смысла учит?? если пр?этом забывает? ? Процес?обучен? должен быть таки? чтоб?сеть обучалас?на всем обучающе?множеств?бе?пропуско?того, чт?уж?выучен? ?доказательстве сходимости эт?услови?выполнен? но требуется такж? чтоб?сети пред?влялись вс?вектор?обучающего множеств?прежде, че?выполняет? коррекция весо? Необходимы?изменения весо?должны вычислять? на всем множеств? ?эт?требуе?дополнительной па?ти; посл??да таки?обучающи?циклов веса сойдут? ?минимально?ошибке. Этот мето?може?оказаться бесполезны? если сеть находится ?пост?нн?ме?ющей? внешне?сред? та?чт?второй ра?один ?то?же вектор може?уж?не повториться. ?этом случае процес?обучен? може?никогд?не сойтис? ?этом смысле алгоритм обратног?распространения ошибки не похо?на биологически?систем?

Глав?2. Прогнозировани?це?на рынк?драгоценны?металлов ?помощь?нейронны?сете

2.1 Сбор данных для проектирован? нейросет

Для прогнозирования цены золота, использовался мето?нейросетевог?моделирования. Этот мето?позволяет решать задачи, для которы?ещ?не существует строго формализованны?ил?работающих ?приемлемой точность?алгоритмов, ?такж?для зада??неполной ил?плох?определенной информацие?

Нейросетев? модель была создан?пр?помощи специально?программ?Нейросимулято?3.0[10], которая представ?ет собо?полноценны?симу?то?полнос?зных нейронны?сете? Нейросимулято?обладает просты? по?тным, настраиваемы? удобны?интерфейсо? Каждое действие снабжено пиктограммой ?кратки?пояснение? Пр?задани?структур?сети он??реальном времен?отображает? ?графическо?виде. Кажд? функция активаци?снабжена окно?конфигурации, на которо?приводиться её формул? график. ?этом же окне можн?настроит?параметр?функци? пр?их наличи? Эт?же относится ?функция?на

Copyright © 2008-2014 geum.ru   рубрикатор по предмета?/a>  рубрикатор по типа?рабо?/a>  пользовательское соглашение