Создание программы, осуществляющей распознавание жестов мыши и выполняющей ассоциированные с ними действия
Дипломная работа - Компьютеры, программирование
Другие дипломы по предмету Компьютеры, программирование
Вµство образов (классов), которые может запоминать и распознавать сеть.
Различают такие архитектуры ИНС:
а)с учителем:
1)двунаправленная ассоциативная память (ДАП) (ассоциативная память, распознавание образов);
2)многослойный персептрон (распознавание образов, классификация);
)однослойный персептрон (распознавание образов, классификация);
)Хемминга (распознавание образов, классификация, ассоциативная память);
)Аутстар (распознавание образов, классификация);
)Инстар (распознавания образов);
)Макснет (совместно с сетью Хемминга, в составе нейросетевых систем распознавания образов);
8)нейросетевой гауссов классификатор (распознавание образов, классификация);
9)вероятностная НС (классификация);
)обобщенно-регрессионная (задачи регрессии);
)Хопфилда;
)линейная сеть.
б)без учителя:
)сеть адаптивной резонансной теории - 1 (АРТ-1) (распознавание образов, кластерный анализ);
)сеть Хемминга (распознавание образов, классификация, ассоциативная память, надежная передача сигналов в условиях помех);
)сеть Кохонена.
Предлагается архитектура многослойной искусственной нейронной сети и алгоритмы настройки ее параметров, сочетающие в себе достоинства многомодельного подхода и аппроксимирующие свойства нейронных сетей с нелинейными функциями активации. Изменение свойств стохастической последовательности фиксируется нейроном выходного слоя, который вычисляет вероятности схожести выходов каждой из моделей с входным сигналом и выход наилучшей модели переключает на выход сети.
Лишь для небольшого числа моделей ИНС существует строгое математическое обоснование возможности их применения для решения конкретных практических задач. В наибольшей степени теоретически проработаны двухслойные ИНС с сигмоидальными функциями активации.
В настоящее время отсутствует универсальная методика построения обучающих выборок. Набор обучающих примеров формируется по усмотрению пользователя программы моделирования ИНС индивидуально для решения каждой конкретной задачи. Наиболее распространенной функцией ошибки является среднеквадратическое отклонение. Однако предложены и другие функции ошибки.
Процесс функционирования НС зависит от величины синаптичних связей, поэтому, задавшись определенной структурой НС, которое отвечает определенной задаче, разработчик сети должен найти оптимальные значения всех сменных, весовых коэффициентов (некоторые синоптические связи могут быть постоянными).
1.4Контролируемое обучение
Процесс обучения нейронной сети ? это автоматический поиск закономерности между совокупностью учебных данных и заранее известным результатом. В очень упрощенном виде его можно подать в виде некоторых действий, которые вырабатываются в просторные, размерность которого равняется числу классов в задаче. Область каждого класса в просторные отвечает наибольшим значениям "своей" осы координат и наименьшим значением другой оси. В процессе обучения примеры, которые подаются сети много раз, постепенно разносятся как можно дальше от диагонали и как можно ближе к углам, каждый из которых отвечает определенному классу. Чем ближе точка примеров к углам, та лучше наученная сеть.
Обычно с искусственной нейронной сетью используются несколько различных видов изучения. Возможно наиболее обычный - так называемое контролируемое обучение. Прежде, чем процесс обучения начинается, все веса установлены в маленькие случайные значения. Тогда обучающийся ввод применяется к входному уровню, размножается через сеть и производит вывод. Этот вывод - в отличие от желательного вывода, производит сигнал ошибки, который, в свою очередь, является вводом к процессу корректировки веса. Используются различные алгоритмы изучения, чтобы корректировать веса с приращением. Когда ввод применяется снова на входной буфер, производится приращение вывода, который снова в отличие от желательного вывода производит второй сигнал ошибки. Этот итеративный процесс продолжается, пока вывод искусственной нейронной сети существенно не равен желательному выводу, и неприводимому минимуму. В этой точке, сеть, как считают, "обучается. Через различные алгоритмы изучения, сеть постепенно конфигурирует себя, чтобы достичь желательных отношений ввода - вывода или "отображения". Контролируемое обучение часто осуществляется с методикой, называемой backpropagation, наиболее общий метод изучения; однако, неконтролируемое обучение, которое осуществлено в сетях Кохонена, также используется во многих ситуациях [8].
Бывают ситуации, когда сеть не может научиться. Это происходит в том случае, когда на определенном этапе обучения исчерпываются дальнейшие возможности поиска закономерностей между учебными параметрами и результатами.
Одна НС учится решать только одну задачу классификации, однако можно использовать для обучения разные учебные выборки. Они могут различаться за количеством примеров, но должны отвечать друг другу за числом учебных параметров, их порядком и числом классов.
Для обучения ИНС можно выделить две большие группы алгоритмов - градиентные (основанные на вычислении частных производных функции ошибки по параметрам сети) и стохастические (поиск минимума функции ошибки ведется случайным образом). Среди градиентных различают алгоритмы первого и второго порядков.
При обучении сетей, как правило, используется один из двух следующих критериев останова: останов при д