Notebook "нейронные сети" Глава 2

Вид материалаДокументы
С289. radbas
С290. tribas
С292. compet
C293. softmax
С294. logsig
С296. tansig
Подобный материал:
1   ...   10   11   12   13   14   15   16   17   ...   33

С289. RADBAS


Информация о функции активации radbas:

name = radbas('name')

dname = radbas('deriv')

inrange = radbas('active')

outrange = radbas('output')

name =

Radial Basis

dname =

dradbas

inrange =

-2 2

outrange =

0 1

Следующая последовательность команд создает график функции активации radbas:

n = -3:0.1:3; a = radbas(n);

figure(1), clf, plot(n,a), grid on

Зададим следующий вектор входа радиальной базисной функции активации для слоя из 3 нейронов и рассчитаем векторы выхода A и производной dA_dN:

N = [0.1; 0.8; -0.7]; A = radbas(N), dA_dN = dradbas(N,A)

A =

0.9900

0.5273

0.6126

dA_dN =

-0.1980

-0.8437

0.8577

С290. TRIBAS


Информация о функции активации tribas:

name = tribas('name')

dname = tribas('deriv')

inrange = tribas('active')

outrange = tribas('output')

name =

Triangle Basis

dname =

dtribas

inrange =

-1 1

outrange =

0 1

Построим график функции активации tribas:

n = -2:0.1:2; a = tribas(n);

figure(1), clf, plot(n,a), grid on

Зададим следующий вектор входа треугольной функции активации для слоя из 3 нейронов и рассчитаем векторы выхода A и производной dA_dN:

N = [0.1; 0.8; -0.7]; A = tribas(N), dA_dN = dtribas(N,A)

A =

0.9000

0.2000

0.3000

dA_dN =

-1

-1

1

Самоогрганизующиеся сети

С292. COMPET


Информация о функции активации compet:

name = compet('name')

dname = compet('deriv')

inrange = compet('active')

outrange = compet('output')


name =

Competitive

dname =

''

inrange =

-Inf Inf

outrange =

0 1

Зададим следующий вектор входа конкурирующей функции активации, вычислим выход и представим входы и выходы в виде столбцовых диаграмм

n = [0; 1; -0.5; 0.5]; a = compet(n);

figure(1), clf

subplot(2,1,1), bar(n), ylabel('n')

subplot(2,1,2), bar(a), ylabel('a')

C293. SOFTMAX


Информация о функции активации softmax:

name = softmax('name')

dname = softmax('deriv')

inrange = softmax('active')

outrange = softmax('output')


name =

Soft Max

dname =

''

inrange =

-Inf Inf

outrange =

0 1

Зададим следующий вектор входа конкурирующей функции активации с мягким максимумом, вычислим выход и представим входы и выходы в виде столбцовых диаграмм

n = [0; 1; -0.5; 0.5]; a = softmax(n);

figure(1), clf

subplot(2,1,1), bar(n), ylabel('n')

subplot(2,1,2), bar(a), ylabel('a')

Рекуррентные сети

С294. LOGSIG


Информация о функции активации logsig:

name = logsig('name')

dname = logsig('deriv')

inrange = logsig('active')

outrange = logsig('output')


name =

Log Sigmoid

dname =

dlogsig

inrange =

-4 4

outrange =

0 1

Построим график функции активации logsig:

n = -5:0.1:5; a = logsig(n);

figure(1), clf, plot(n,a), grid on

Зададим следующий вектор входа логистической функции активации для слоя из 3 нейронов и рассчитаем векторы выхода A и производной dA_dN:

N = [0.1; 0.8; -0.7]; A = logsig(N), dA_dN = dlogsig(N,A)


A =

0.5250

0.6900

0.3318

dA_dN =

0.2494

0.2139

0.2217

С296. TANSIG


Информация о функции активации tansig:

name = tansig('name')

dname = tansig('deriv')

inrange = tansig('active')

outrange = tansig('output')


name =

Tan Sigmoid

dname =

dtansig

inrange =

-2 2

outrange =

-1 1

Следующая последовательность команд строит график функции активации tansig:

n = -3:0.1:3; a = tansig(n);

figure(1), clf, plot(n,a), grid on

Зададим следующий вектор входа гиперболической тангенциальной функции активации для слоя из 3 нейронов и рассчитаем векторы выхода A и производной dA_dN:

N = [0.1; 0.8; -0.7]; A = tansig(N), dA_dN = dtansig(N,A)


A =

0.0997

0.6640

-0.6044

dA_dN =

0.9901

0.5591

0.6347