matlab神经网络1

神经网络的通用函数一、神经网络仿真函数

[Y,Pf,Af,E,Perf]=sim(net,P,Pi,Ai,T)

其中,参数Y为网络的输出;Pf表示最终的输入延时状态;Af表示最终的层延时状态;E为实际输出与目标向量之间的误差;perf为网络的性能值;net为要测试要的网络对象;P为网络的输入向量矩阵;Pi为初始的输入状态延时状态(可省略);Ai为初始的层延时状态(可省略);T为目标向量(可省略)。

二、神经网络训练函数

1.train函数

[net,tr,Y,E,Pf,Af] = train(net,P,T,Pi,Ai)

输出参数net为训练后的网络;tr为训练记录;Y为网络输出向量;E为误差向量;Pf为训练终止时的输入延迟状态;Af为训练终止时的层延时状态。输入参数net为训练前的网络;P为网络的输入向量矩阵;T表示网络的目标矩阵,默认值为;Pi表示初始输入延时,默认值为;Ai表示初始的层延时,默认值为。

网络训练函数是一种通用的学习函数,训练函数重复地把一组输入向量应用到一个网络上,每次都更新网络,知道达到了某种准则,停止准则可能是达到最大的学习步数、最小的误差梯度或误差目标等。

2.trainb函数

用于对神经网络权值和阈值进行训练,函数的调用格式如下:

net.trainFcn =‘trainb’

该函数不能被直接调用,而是通过函数train隐含调用,train通过设置网络属性net.trainFcn为trainb来调用trainb对网络进行训练。

p=[0 1 2 3 4 5];

t=[0 0 0 1 1 1];

net = feedforwardnet(3,'trainb');

net = train(net,p,t);

y=net(p)

3.adapt函数

[net,Y,E,Pf,Af] = adapt(net,P,T,Pi,Ai)

输入参数net为待自适应的神经网络;P为网络输入;T为网络目标,默认值为;Pi为初始输入延迟,默认值为;Ai为初始层延迟,默认值为;输出net参数为自适应后的神经网络,Y为网络输出;E为网络误差;Pf为最终输入延迟;Af为最终层延迟。

p=[-1 0 1 0 1 1 -1 0 -1 1 0 1];

t=[-1 -1 1 1 1 2 0 -1 -1 0 1 1];

net=linearlayer([0 1],0.1);

%创建一个线性层,输入范围为[-1 1],学习率为0.1

[net,t,e,pf]=adapt(net,p,t);

mse(e)

三、神经网络学习函数1.learnp函数

[dW,LS]=learnp(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)

参数dW为权值变化矩阵;LS为当前学习状态;W为SxR的权值矩阵(可省略);P为RxQ的输入向量矩阵;Z为SxQ的输入层的权值矩阵(可省略);N为SxQ的网络输入矩阵(可省略);E为误差矩阵(E=T-Y);T表示网络的目标向量(可省略);A表示网络的实际输出向量(可省略);gW为SxR的与性能相关的权值梯度矩阵(可省略);gA为SxQ的与性能相关的输出梯度值矩阵(可省略);D为SxS的神经元距离矩阵(可省略);LP为学习参数(可省略);LS学习函数声明(可省略)。

利用learnp函数学习一个感知器网络,使其完成‘或’功能

2.learn函数

该函数也是一个权值和阈值学习函数,但它在输入向量和复制变化非常大或存在奇异值时,其虚席速度比learnp块很多。

四、神经网络初始化函数1.revert函数

该函数用于将更新后的权值和阈值恢复到最后一次初始化的值,函数的调用格式为net = revert(net)

如果网络结果已经发生了变化,也就是说,如果网络的权值和阈值之间的链接关系以及输入、每层的长度与原来的网络结构有所不同,那么该函数无法将权值和阈值回复到原来的值。

2.init函数

net = init(net)

3.initlay函数

net = initlay(net)用于对线性神经网络的某层进行初始化

4.initnw函数

net = initnw(net, i)该函数是一个层初始化函数,i为层次索引

五、神经网络输入函数1.netsum函数

该函数是一个输入求和函数,它通过将某一层的加权输入和阈值相加作为该层的输入,函数的调用格式为:

N = netsum(,Fp)

参数Z1,Z2,...,Zn表示第i个输入,它的数目可以是任意个,Fp为功能参数单元阵列,课忽略。

2.netprod函数

该函数的计算与netsum类似,不过该函数是一个求积函数,它将某一层的权值和阈值相乘作为该层的输入。

N = netprod()

3.concur函数

该函数的作用在于使得本来不一直的权值向量和阈值向量的结构一致,以便进行相加或相乘运算,函数的调用格式如下:

concur(B,Q)

其中B为Nx1维的权值向量;Q为要达到一致化所需要的长度。

六、神经网络传递函数

1.hardlim函数

A = hardlim(N,FP)

在给定的网络的输入向量矩阵N时,返回该层的输出向量矩阵A,当N中的元素大于等于零时,返回值为1,否则为0。

2.hardlims函数

输出的值为-1和1

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20171215G0VPWW00?refer=cp_1026

相关快讯

扫码关注云+社区