Notebook "нейронные сети" Глава 2

Вид материалаДокументы
Подобный материал:
1   ...   20   21   22   23   24   25   26   27   ...   33

C391. LEARNLV2


Определим слой нейронной сети с двухэлементным входом и тремя нейронами сеть со случайными массивами входа p, весов w и выхода a; зададим также градиент функционала по выходу gA и параметр скорости настройки lr:

p = rand(2,1); w = rand(3,2);

n = negdist(w,p); a = compet(n);

gA = [-1;1;1]; lp.lr = 0.5; lp.window = 0.25;

Вызов функции learnlv2 можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:

dW = learnlv2(w,p,[],n,a,[],[],[],gA,[],lp,[])


dW =

-0.2149 0.1641

0 0

0.2254 -0.1108

C392. LEARNK


Определим слой Кохонена сети с двухэлементным входом и тремя нейронами со случайными массивами входа p, весов w и выхода a; зададим также параметр скорости настройки lr:

p = rand(2,1); a = rand(3,1); w = rand(3,2);

lp.lr = 0.5;

Вызов функции learnk можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:

dW = learnk(w,p,[],[],a,[],[],[],[],[],lp,[])


dW =

-0.0884 -0.0187

-0.3146 0.1216

-0.1501 0.1838

C394. LEARNCON


Определим слой Кохонена сети с двухэлементным входом и тремя нейронами со случайными массивами выхода a, вектора смещений b; зададим также параметр скорости настройки lr:

a = rand(3,1); b = rand(3,1);

lp.lr = 0.5;

Вызов функции learnk можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:

db = learncon(b,[],[],[],a,[],[],[],[],[],lp,[])


db =

0.2902

0.5015

0.1399

C395. LEARNIS


Определим слой Кохонена с двухэлементным входом и тремя нейронами со случайными массивами входа p, весов w и выхода a; зададим также параметр скорости настройки lr:

p = rand(2,1); a = rand(3,1); w = rand(3,2);

lp.lr = 0.5;

Вызов функции learnis можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:

dW = learnis(w,p,[],[],a,[],[],[],[],[],lp,[])


dW =

0.0866 -0.1146

-0.0862 -0.1876

-0.0367 -0.0836

C396. LEARNOS


Определим слой Кохонена с двухэлементным входом и тремя нейронами со случайными массивами входа p, весов w и выхода a; зададим также параметр скорости настройки lr:

p = rand(2,1); a = rand(3,1); w = rand(3,2);

lp.lr = 0.5;

Вызов функции learnos можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:

dW = learnos(w,p,[],[],a,[],[],[],[],[],lp,[])

dW =

0.0055 -0.0042

-0.0521 -0.0244

0.0272 0.0262

C397. LEARNSOM


Определим карту Кохонена с расположением нейронов на гексагональной сетке размера 23, а также расстояния между ними; зададим случайные массивы входа p, выхода a и весов w, а также параметры процедуры настройки.

p = rand(2,1); a = rand(6,1); w = rand(6,2);

pos = hextop(2,3); d = linkdist(pos);

lp.order_lr = 0.9; lp.order_steps = 1000;

lp.tune_lr = 0.02; lp.tune_nd = 1;

Вызов функции learnsom можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:

ls = []; [dW,ls] = learnsom(w,p,[],[],a,[],[],[],[],d,lp,ls)


dW =

-1.0999 1.4042

0.3702 -0.4255

0.4251 1.0936

-0.8669 0.7965

-0.6354 0.0720

0.5719 0.7607

ls =

step: 1

nd_max: 2

C399. LEARNH


Определим нейронную сеть с двухэлементным входом и тремя нейронами со случайными массивами входа p и выхода a; зададим также параметр скорости настройки lr:

p = rand(2,1); a = rand(3,1);

lp.lr = 0.5;

Вызов функции learnh можно организовать следующим образом, поскольку не все входные аргументы требуются для вызова этой функции:

dW = learnh([],p,[],[],a,[],[],[],[],[],lp,[])

dW =

0.2319 0.0320

0.1367 0.0189

0.0994 0.0137

C400. MAXLINLR


Зададим числовой массив входа, состоящий из четырех двухэлементных векторов и вычислим максимальные значения параметра скорости настройки для линейной сети без и со смещением:

P = [ 1 2 -4 7; 0.1 3 10 6];

lr = maxlinlr(P) %Без смещения

lr = 0.0069

lr = maxlinlr(P,'bias') %Со смещением

lr =

0.0069

lr =

0.0069

lr =

0.0067