Notebook "нейронные сети" Глава 2
Вид материала | Документы |
С289. radbas С290. tribas С292. compet C293. softmax С294. logsig С296. tansig |
- Программа дисциплины «Теория нечетких множеств и нейронные сети» Для специальности, 567.45kb.
- Самостоятельная работа по прогнозированию экономических процессов на тему: нейронные, 148.65kb.
- Лекция 2 Лекция «Нейронные сети» Начнем с определения: Искусственные нейронные сети, 131.57kb.
- "Нейроновые сети ", 374.46kb.
- Нейронные сети как механизм представления лексико-семантической информации, 376.06kb.
- Программа, 39.37kb.
- Нейронные сети: алгоритм обратного распространения, 336.15kb.
- Предупреждение. Спасение. Помощь, 3059.76kb.
- Нейрокомпьютерная обработка сигналов и изображений, 184.71kb.
- Нейронные сети: основы теории / А. И. Галушкин. М. Горячая линия Телеком, 2010., 585.42kb.
С289. RADBAS
Информация о функции активации radbas:
name = radbas('name')
dname = radbas('deriv')
inrange = radbas('active')
outrange = radbas('output')
name =
Radial Basis
dname =
dradbas
inrange =
-2 2
outrange =
0 1
Следующая последовательность команд создает график функции активации radbas:
n = -3:0.1:3; a = radbas(n);
figure(1), clf, plot(n,a), grid on
Зададим следующий вектор входа радиальной базисной функции активации для слоя из 3 нейронов и рассчитаем векторы выхода A и производной dA_dN:
N = [0.1; 0.8; -0.7]; A = radbas(N), dA_dN = dradbas(N,A)
A =
0.9900
0.5273
0.6126
dA_dN =
-0.1980
-0.8437
0.8577
С290. TRIBAS
Информация о функции активации tribas:
name = tribas('name')
dname = tribas('deriv')
inrange = tribas('active')
outrange = tribas('output')
name =
Triangle Basis
dname =
dtribas
inrange =
-1 1
outrange =
0 1
Построим график функции активации tribas:
n = -2:0.1:2; a = tribas(n);
figure(1), clf, plot(n,a), grid on
Зададим следующий вектор входа треугольной функции активации для слоя из 3 нейронов и рассчитаем векторы выхода A и производной dA_dN:
N = [0.1; 0.8; -0.7]; A = tribas(N), dA_dN = dtribas(N,A)
A =
0.9000
0.2000
0.3000
dA_dN =
-1
-1
1
Самоогрганизующиеся сети
С292. COMPET
Информация о функции активации compet:
name = compet('name')
dname = compet('deriv')
inrange = compet('active')
outrange = compet('output')
name =
Competitive
dname =
''
inrange =
-Inf Inf
outrange =
0 1
Зададим следующий вектор входа конкурирующей функции активации, вычислим выход и представим входы и выходы в виде столбцовых диаграмм
n = [0; 1; -0.5; 0.5]; a = compet(n);
figure(1), clf
subplot(2,1,1), bar(n), ylabel('n')
subplot(2,1,2), bar(a), ylabel('a')
C293. SOFTMAX
Информация о функции активации softmax:
name = softmax('name')
dname = softmax('deriv')
inrange = softmax('active')
outrange = softmax('output')
name =
Soft Max
dname =
''
inrange =
-Inf Inf
outrange =
0 1
Зададим следующий вектор входа конкурирующей функции активации с мягким максимумом, вычислим выход и представим входы и выходы в виде столбцовых диаграмм
n = [0; 1; -0.5; 0.5]; a = softmax(n);
figure(1), clf
subplot(2,1,1), bar(n), ylabel('n')
subplot(2,1,2), bar(a), ylabel('a')
Рекуррентные сети
С294. LOGSIG
Информация о функции активации logsig:
name = logsig('name')
dname = logsig('deriv')
inrange = logsig('active')
outrange = logsig('output')
name =
Log Sigmoid
dname =
dlogsig
inrange =
-4 4
outrange =
0 1
Построим график функции активации logsig:
n = -5:0.1:5; a = logsig(n);
figure(1), clf, plot(n,a), grid on
Зададим следующий вектор входа логистической функции активации для слоя из 3 нейронов и рассчитаем векторы выхода A и производной dA_dN:
N = [0.1; 0.8; -0.7]; A = logsig(N), dA_dN = dlogsig(N,A)
A =
0.5250
0.6900
0.3318
dA_dN =
0.2494
0.2139
0.2217
С296. TANSIG
Информация о функции активации tansig:
name = tansig('name')
dname = tansig('deriv')
inrange = tansig('active')
outrange = tansig('output')
name =
Tan Sigmoid
dname =
dtansig
inrange =
-2 2
outrange =
-1 1
Следующая последовательность команд строит график функции активации tansig:
n = -3:0.1:3; a = tansig(n);
figure(1), clf, plot(n,a), grid on
Зададим следующий вектор входа гиперболической тангенциальной функции активации для слоя из 3 нейронов и рассчитаем векторы выхода A и производной dA_dN:
N = [0.1; 0.8; -0.7]; A = tansig(N), dA_dN = dtansig(N,A)
A =
0.0997
0.6640
-0.6044
dA_dN =
0.9901
0.5591
0.6347