文档库 最新最全的文档下载
当前位置:文档库 › 用matlab编BP神经网络预测程序

用matlab编BP神经网络预测程序

用matlab编BP神经网络预测程序
用matlab编BP神经网络预测程序

求用matlab编BP神经网络预测程序

求一用matlab编的程序

P=[。。。];输入T=[。。。];输出

% 创建一个新的前向神经网络

net_1=newff(minmax(P),[10,1],{'tansig','purelin'},'traingdm')

% 当前输入层权值和阈值

inputWeights=net_1.IW{1,1}

inputbias=net_1.b{1}

% 当前网络层权值和阈值

layerWeights=net_1.LW{2,1}

layerbias=net_1.b{2}

% 设置训练参数

net_1.trainParam.show = 50;

net_1.trainParam.lr = 0.05;

net_1.trainParam.mc = 0.9;

net_1.trainParam.epochs = 10000;

net_1.trainParam.goal = 1e-3;

% 调用 TRAINGDM 算法训练 BP 网络

[net_1,tr]=train(net_1,P,T);

% 对 BP 网络进行仿真

A = sim(net_1,P);

% 计算仿真误差

E = T - A;

MSE=mse(E)

x=[。。。]';%测试

sim(net_1,x)

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

不可能啊我2009

28

对初学神经网络者的小提示

第二步:掌握如下算法:

2.最小均方误差,这个原理是下面提到的神经网络学习算法的理论核心,入门者要先看《高等数学》(高等教育出版社,同济大学版)第8章的第十节:“最小二乘法”。

3.在第2步的基础上看Hebb学习算法、SOM和K-近邻算法,上述算法都是在最小均方误差基础上的改进算法,参考书籍是《神经网络原理》(机械工业出版社,Simon Haykin著,中英文都有)、《人工神经网络与模拟进化计算》(清华大学出版社,阎平凡,张长水著)、《模式分类》(机械工业出版社,Richard O. Duda等著,中英文都有)、《神经网络设计》(机械工业出版社,Martin T. Hargan等著,中英文都有)。

4.ART(自适应谐振理论),该算法的最通俗易懂的读物就是《神经网络设计》(机械工业出版社,Martin T. Hargan等著,中英文都有)的第15和16章。若看理论分析较费劲可直接编程实现一下16.2.7节的ART1算法小节中的算法.

4.BP算法,初学者若对误差反传的分析过程理解吃力可先跳过理论分析和证明的内容,直接利用最后的学习规则编个小程序并测试,建议看《机器学习》(机械工业出版社,Tom M. Mitchell著,中英文都有)的第4章和《神经网络设计》(机械工业出版社,Martin T. Hargan等著,中英文都有)的第11章。

BP神经网络Matlab实例(1)

分类:Matlab实例

采用Matlab工具箱函数建立神经网络,对一些基本的神经网络参数进行了说明,深入了解参考Matlab帮助文档。

% 例1 采用动量梯度下降算法训练 BP 网络。

% 训练样本定义如下:

% 输入矢量为

% p =[-1 -2 3 1

% -1 1 5 -3]

% 目标矢量为 t = [-1 -1 1 1]

close all

clear

clc

%

---------------------------------------------------------------

% NEWFF——生成一个新的前向神经网络,函数格式:

% net = newff(PR,[S1 S2...SNl],{TF1 TF2...TFNl},BTF,BLF,PF) takes,

% PR -- R x 2 matrix of min and max values for R input elements % (对于R维输入,PR是一个R x 2 的矩阵,每一行是相应输入的边界值)

% Si -- 第i层的维数

% TFi -- 第i层的传递函数, default = 'tansig'

% BTF -- 反向传播网络的训练函数, default = 'traingdx'

% BLF -- 反向传播网络的权值/阈值学习函数, default = 'learngdm' % PF -- 性能函数, default = 'mse'

%

---------------------------------------------------------------

% TRAIN——对 BP 神经网络进行训练,函数格式:

% train(NET,P,T,Pi,Ai,VV,TV),输入参数:

% net -- 所建立的网络

% P -- 网络的输入

% T -- 网络的目标值, default = zeros

% Pi -- 初始输入延迟, default = zeros

% Ai -- 初始网络层延迟, default = zeros

% VV -- 验证向量的结构, default = []

% TV -- 测试向量的结构, default = []

% 返回值:

% net -- 训练之后的网络

% TR -- 训练记录(训练次数及每次训练的误差)

% Y -- 网络输出

% E -- 网络误差

% Pf -- 最终输入延迟

% Af -- 最终网络层延迟

%

---------------------------------------------------------------

% SIM——对 BP 神经网络进行仿真,函数格式:

% [Y,Pf,Af,E,perf] = sim(net,P,PiAi,T)

% 参数与前同。

%

---------------------------------------------------------------

%

% 定义训练样本

% P 为输入矢量

echo on

P=[-1, -2, 3, 1;

-1, 1, 5, -3];

% T 为目标矢量

T=[-1, -1, 1, 1];

% 创建一个新的前向神经网络

net=newff(minmax(P),[3,1],{'tansig','purelin'},'traingdm') %

---------------------------------------------------------------

% 训练函数:traingdm,功能:以动量BP算法修正神经网络的权值和阈值。

% 它的相关特性包括:

% epochs:训练的次数,默认:100

% goal:误差性能目标值,默认:0

% lr:学习率,默认:0.01

% max_fail:确认样本进行仿真时,最大的失败次数,默认:5

% mc:动量因子,默认:0.9

% min_grad:最小梯度值,默认:1e-10

% show:显示的间隔次数,默认:25

% time:训练的最长时间,默认:inf

%

---------------------------------------------------------------

% 当前输入层权值和阈值

inputWeights=net.IW{1,1}

inputbias=net.b{1}

% 当前网络层权值和阈值

layerWeights=net.LW{2,1}

layerbias=net.b{2}

% 设置网络的训练参数

net.trainParam.show = 50;

net.trainParam.lr = 0.05;

net.trainParam.mc = 0.9;

net.trainParam.epochs = 1000;

net.trainParam.goal = 1e-3;

% 调用 TRAINGDM 算法训练 BP 网络

[net,tr]=train(net,P,T);

% 对 BP 网络进行仿真

A = sim(net,P)

% 计算仿真误差

E = T - A

MSE=mse(E)

echo off

figure;

plot((1:4),T,'-*',(1:4),A,'-o')

1 B P神经网络的原理及算法的基本步骤

理论上已证明 ,一个3层的 B P网络能够实现任意的连续映射 ,

可以任意精度逼近任何给定的连续函数。

1. 1 B P神经网络的原理

B P (B ack P rop aga tion)神经网络通常由具有多个节点的输入层( inp u t laye r) 、隐含层( h idden laye r) 和多个或一个输出节点的输出层( ou tp u t laye r)组成 ,其学习过程分为信息的正向传播过程和误差的反向传播过程两个阶段。外部输入的信号经输入层、隐含层为止。的神经元逐层处理 ,向前传播到输出层 ,给出结果。如果在输出层得不到期望输出 ,则转入逆向传播过程 ,将实际值与网络输出之间的误差沿原连接通路返回 ,通过修改各层神经元的连接权重 ,减少误差 ,然后再转入正向传播过程 ,反复迭代 ,直到误差小于给定的值

年份2011 2012 2013 2014 2015 全国总人口134668 135478 136325 137185 138036 年份2016 2017 2018 2019 2020 全国总人口138862 139652 140402 141106 141760

2.1 利用Matlab Script节点实现

在此以对一个非线性函数的逼近作为例子来说明

实现流程,其中输入矢量p=[-1∶0.05∶1];目标矢

量t=sin(2*pi*p)+0.1randn(size(p))。利用Mat- lab Script节点实现BP算法的过程如下:

(1)新建一个LabVIEW vi,在框图程序中添加

Matlab Script节点。

(2)在节点内添加Matlab的动量BP算法实现代

码,并分别在节点左右边框分别添加对应的输入/输出参数,如图1所示。

(3)在vi的前面板添加相应的控件,设置输入参

数,连接输出控件。执行程序,结果如图2、图3所示。

下面的代码将重建我们以前的网络,然后用批处理最速下降法训(注意用批处理方式训练的话所有的输入要设置为矩阵方式)练网络。

net=newff([-1 2; 0

5],[3,1],{'tansig','purelin'},'tr

aingd');

net.trainParam.show = 50;

net.trainParam.lr = 0.05;

net.trainParam.epochs = 300;

net.trainParam.goal = 1e-5;

p = [-1 -1 2 2;0 5 0 5];

t = [-1 -1 1 1];

net=train(net,p,t);

TRAINGD, Epoch 0/300, MSE 1.59423/1e-05, Gradient 2.76799/ 1e-10

TRAINGD, Epoch 50/300, MSE 0.00236382/1e-05, Gradient

0.0495292/1e-10

TRAINGD, Epoch 100/300, MSE 0.000435947/1e-05, Gradient 0.0161202/1e-10

TRAINGD, Epoch 150/300, MSE 8.68462e-05/1e-05, Gradient 0.00769588/1e-10

TRAINGD, Epoch 200/300, MSE 1.45042e-05/1e-05, Gradient 0.00325667/1e-10

TRAINGD, Epoch 211/300, MSE 9.64816e-06/1e-05, Gradient 0.00266775/1e-10

TRAINGD, Performance goal met.

a = sim(net,p)

a =

-1.0010 -0.9989 1.0018 0.9985

用nnd12sd1 来演示批处理最速下降法的性

能。

相关文档