Notebook "нейронные сети" Глава 2
Вид материала | Документы |
- Программа дисциплины «Теория нечетких множеств и нейронные сети» Для специальности, 567.45kb.
- Самостоятельная работа по прогнозированию экономических процессов на тему: нейронные, 148.65kb.
- Лекция 2 Лекция «Нейронные сети» Начнем с определения: Искусственные нейронные сети, 131.57kb.
- "Нейроновые сети ", 374.46kb.
- Нейронные сети как механизм представления лексико-семантической информации, 376.06kb.
- Программа, 39.37kb.
- Нейронные сети: алгоритм обратного распространения, 336.15kb.
- Предупреждение. Спасение. Помощь, 3059.76kb.
- Нейрокомпьютерная обработка сигналов и изображений, 184.71kb.
- Нейронные сети: основы теории / А. И. Галушкин. М. Горячая линия Телеком, 2010., 585.42kb.
C391. LEARNLV2
Определим слой нейронной сети с двухэлементным входом и тремя нейронами сеть со случайными массивами входа p, весов w и выхода a; зададим также градиент функционала по выходу gA и параметр скорости настройки lr:
p = rand(2,1); w = rand(3,2);
n = negdist(w,p); a = compet(n);
gA = [-1;1;1]; lp.lr = 0.5; lp.window = 0.25;
Вызов функции learnlv2 можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:
dW = learnlv2(w,p,[],n,a,[],[],[],gA,[],lp,[])
dW =
-0.2149 0.1641
0 0
0.2254 -0.1108
C392. LEARNK
Определим слой Кохонена сети с двухэлементным входом и тремя нейронами со случайными массивами входа p, весов w и выхода a; зададим также параметр скорости настройки lr:
p = rand(2,1); a = rand(3,1); w = rand(3,2);
lp.lr = 0.5;
Вызов функции learnk можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:
dW = learnk(w,p,[],[],a,[],[],[],[],[],lp,[])
dW =
-0.0884 -0.0187
-0.3146 0.1216
-0.1501 0.1838
C394. LEARNCON
Определим слой Кохонена сети с двухэлементным входом и тремя нейронами со случайными массивами выхода a, вектора смещений b; зададим также параметр скорости настройки lr:
a = rand(3,1); b = rand(3,1);
lp.lr = 0.5;
Вызов функции learnk можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:
db = learncon(b,[],[],[],a,[],[],[],[],[],lp,[])
db =
0.2902
0.5015
0.1399
C395. LEARNIS
Определим слой Кохонена с двухэлементным входом и тремя нейронами со случайными массивами входа p, весов w и выхода a; зададим также параметр скорости настройки lr:
p = rand(2,1); a = rand(3,1); w = rand(3,2);
lp.lr = 0.5;
Вызов функции learnis можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:
dW = learnis(w,p,[],[],a,[],[],[],[],[],lp,[])
dW =
0.0866 -0.1146
-0.0862 -0.1876
-0.0367 -0.0836
C396. LEARNOS
Определим слой Кохонена с двухэлементным входом и тремя нейронами со случайными массивами входа p, весов w и выхода a; зададим также параметр скорости настройки lr:
p = rand(2,1); a = rand(3,1); w = rand(3,2);
lp.lr = 0.5;
Вызов функции learnos можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:
dW = learnos(w,p,[],[],a,[],[],[],[],[],lp,[])
dW =
0.0055 -0.0042
-0.0521 -0.0244
0.0272 0.0262
C397. LEARNSOM
Определим карту Кохонена с расположением нейронов на гексагональной сетке размера 23, а также расстояния между ними; зададим случайные массивы входа p, выхода a и весов w, а также параметры процедуры настройки.
p = rand(2,1); a = rand(6,1); w = rand(6,2);
pos = hextop(2,3); d = linkdist(pos);
lp.order_lr = 0.9; lp.order_steps = 1000;
lp.tune_lr = 0.02; lp.tune_nd = 1;
Вызов функции learnsom можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:
ls = []; [dW,ls] = learnsom(w,p,[],[],a,[],[],[],[],d,lp,ls)
dW =
-1.0999 1.4042
0.3702 -0.4255
0.4251 1.0936
-0.8669 0.7965
-0.6354 0.0720
0.5719 0.7607
ls =
step: 1
nd_max: 2
C399. LEARNH
Определим нейронную сеть с двухэлементным входом и тремя нейронами со случайными массивами входа p и выхода a; зададим также параметр скорости настройки lr:
p = rand(2,1); a = rand(3,1);
lp.lr = 0.5;
Вызов функции learnh можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:
dW = learnh([],p,[],[],a,[],[],[],[],[],lp,[])
dW =
0.2319 0.0320
0.1367 0.0189
0.0994 0.0137
C400. MAXLINLR
Зададим числовой массив входа, состоящий из четырех двухэлементных векторов и вычислим максимальные значения параметра скорости настройки для линейной сети без и со смещением:
P = [ 1 2 -4 7; 0.1 3 10 6];
lr = maxlinlr(P) %Без смещения
lr = 0.0069
lr = maxlinlr(P,'bias') %Со смещением
lr =
0.0069
lr =
0.0069
lr =
0.0067