数学建模BP神经网络论文.docx
- 文档编号:14082832
- 上传时间:2023-06-20
- 格式:DOCX
- 页数:9
- 大小:18.93KB
数学建模BP神经网络论文.docx
《数学建模BP神经网络论文.docx》由会员分享,可在线阅读,更多相关《数学建模BP神经网络论文.docx(9页珍藏版)》请在冰点文库上搜索。
数学建模BP神经网络论文
资料范本
本资料为word版本,可以直接编辑和打印,感谢您的下载
数学建模BP神经网络论文
地点:
__________________
时间:
__________________
说明:
本资料适用于约定双方经过谈判,协商而共同承认,共同遵守的责任与义务,仅供参考,文档可直接下载或修改,不需要的部分可直接删除,使用时请详细阅读内容
BP神经网络
算法原理:
输入信号通过中间节点(隐层点)作用于输出节点,经过非线形变换,产生输出信号,网络训练的每个样本包括输入向量和期望输出量,网络输出值与期望输出值之间的偏差,通过调整输入节点与隐层节点的联接强度取值和隐层节点与输出节点之间的联接强度以及阈值,使误差沿梯度方向下降,经过反复学习训练,确定与最小误差相对应的网络参数(权值和阈值),训练即告停止。
此时经过训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信息。
变量定义:
设输入层有个神经元,隐含层有个神经元,输出层有个神经元
输入向量:
隐含层输入向量:
隐含层输出向量:
输出层输入向量:
输出层输出向量:
期望输出向量:
输入层与中间层的连接权值:
隐含层与输出层的连接权值:
隐含层各神经元的阈值:
输出层各神经元的阈值:
样本数据个数:
激活函数:
误差函数:
算法步骤:
Step1.网络初始化。
给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数,给定计算精度值和最大学习次数M。
Step2.随机选取第个输入样本及对应期望输出
Step3.计算隐含层各神经元的输入和输出及输出层各神经元的输入和输出
Step4.利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数。
Step5.利用隐含层到输出层的连接权值、输出层的和隐含层的输出计算误差函数对隐含层各神经元的偏导数。
Step6.利用输出层各神经元的和隐含层各神经元的输出来修正连接权值。
Step7.利用隐含层各神经元的和输入层各神经元的输入修正连接权。
Step8.计算全局误差。
Step9.判断网络误差是否满足要求。
当误差达到预设精度或学习次数大于设定的最大次数,则结束算法。
否则,选取下一个学习样本及对应的期望输出,返回到第三步,进入下一轮学习。
算法流程图:
输入,根据网络的状态方程计算网络输出
网络初始化
计算全局误差:
修改权值:
训练完成
达到最大学习次数
NO
NO
YES
YES
参数确定:
确定了网络层数、每层节点数、传递函数、初始权系数、学习算法等也就确定了BP网络。
确定这些选项时有一定的指导原则,但更多的是靠经验和试凑。
1.样本数据
采用BP神经网络方法建模的首要和前提条件是有足够多典型性好和精度高的样本。
而且,为监控训练(学习)过程使之不发生“过拟合”和评价建立的网络模型的性能和泛化能力,必须将收集到的数据随机分成训练样本、检验样本(10%以上)和测试样本(10%以上)3部分。
2.输入/输出变量
一般地,BP网络的输入变量即为待分析系统的内生变量(影响因子或自变量)数,一般根据专业知识确定。
若输入变量较多,一般可通过主成份分析方法压减输入变量,也可根据剔除某一变量引起的系统误差与原系统误差的比值的大小来压减输入变量。
输出变量即为系统待分析的外生变量(系统性能指标或因变量),可以是一个,也可以是多个。
一般将一个具有多个输出的网络模型转化为多个具有一个输出的网络模型效果会更好,训练也更方便。
3.数据的预处理
由于BP神经网络的隐层一般采用Sigmoid转换函数,为提高训练速度和灵敏性以及有效避开Sigmoid函数的饱和区,一般要求输入数据的值在0~1之间。
因此,要对输入数据进行预处理。
一般要求对不同变量分别进行预处理,也可以对类似性质的变量进行统一的预处理。
如果输出层节点也采用Sigmoid转换函数,输出变量也必须作相应的预处理,否则,输出变量也可以不做预处理。
但必须注意的是,预处理的数据训练完成后,网络输出的结果要进行反变换才能得到实际值。
再者,为保证建立的模型具有一定的外推能力,最好使数据预处理后的值在0.2~0.8之间。
标准化:
4.隐层数
一般认为,增加隐层数可以降低网络误差,提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合(overfitting)”造成网络的性能脆弱,泛化能力(generalizationability)下降。
Hornik等早已证明:
若输入层和输出层采用线性转换函数,隐层采用Sigmoid转换函数,则含一个隐层的MLP网络能够以任意精度逼近任何有理函数。
显然,这是一个存在性结论。
在设计BP网络时可参考这一点,应优先考虑3层BP网络(即有1个隐层)。
1
x
2
x
1
N
x
1
y
2
y
2
N
y
1
z
2
z
3
N
z
1
D
2
D
3
N
D
1
T
2
T
ih
w
hj
w
-
-
-
隐含层
输出层
输入层
3
N
T
图三层BP网络的拓扑结构
5.隐层节点数
在BP网络中,若隐层节点数太少,网络可能根本不能训练或网络性能很差;若隐层节点数太多,虽然可使网络的系统误差减小,但一方面使网络训练时间延长,另一方面,训练容易陷入局部极小点而得不到最优点,也是训练时出现“过拟合”的内在原因,但是目前理论上还没有一种科学的和普遍的确定方法。
为尽可能避免训练时出现“过拟合”现象,保证足够高的网络性能和泛化能力,确定隐层节点数的最基本原则是:
在满足精度要求的前提下取尽可能紧凑的结构,即取尽可能少的隐层节点数。
因此,合理隐层节点数应在综合考虑网络结构复杂程度和误差大小的情况下用节点删除法和扩张法确定。
6.传递函数
图BP网络常用的传递函数
BP网络的传递函数有多种。
Log-sigmoid型函数的输入值可取任意值,输出值在0和1之间;tan-sigmod型传递函数tansig的输入值可取任意值,输出值在-1到+1之间;线性传递函数purelin的输入与输出值可取任意值。
BP网络通常有一个或多个隐层,该层中的神经元均采用sigmoid型传递函数,输出层的神经元则采用线性传递函数,整个网络的输出可以取任意值。
7.学习率
学习率影响系统学习过程的稳定性。
大的学习率可能使网络权值每一次的修正量过大,甚至会导致权值在修正过程中超出某个误差的极小值呈不规则跳跃而不收敛;但过小的学习率导致学习时间过长,不过能保证收敛于某个极小值。
所以,一般倾向选取较小的学习率以保证学习过程的收敛性(稳定性),通常在0.01~0.8之间。
8.网络的初始连接权值
BP算法决定了误差函数一般存在(很)多个局部极小点,不同的网络初始权值直接决定了BP算法收敛于哪个局部极小点或是全局极小点。
因此,要求计算程序必须能够自由改变网络初始连接权值。
由于Sigmoid转换函数的特性,一般要求初始权值分布在-0.5~0.5之间比较有效。
10.收敛误差界值Emin
在网络训练过程中应根据实际情况预先确定误差界值。
误差界值的选择完全根据网络模型的收敛速度大小和具体样本的学习精度来确定。
当Emin值选择较小时,学习效果好,但收敛速度慢,训练次数增加。
如果Emin值取得较大时则相反。
网络模型的性能和泛化能力:
训练神经网络的首要和根本任务是确保训练好的网络模型对非训练样本具有好的泛化能力(推广性),即有效逼近样本蕴含的内在规律,而不是看网络模型对训练样本的拟合能力。
判断建立的模型是否已有效逼近样本所蕴含的规律,主要不是看测试样本误差大小的本身,而是要看测试样本的误差是否接近于训练样本和检验样本的误差。
非训练样本误差很接近训练样本误差或比其小,一般可认为建立的网络模型已有效逼近训练样本所蕴含的规律,否则,若相差很多(如几倍、几十倍甚至上千倍)就说明建立的网络模型并没有有效逼近训练样本所蕴含的规律,而只是在这些训练样本点上逼近而已,而建立的网络模型是对训练样本所蕴含规律的错误反映。
算法的特点:
1.非线性映照能力。
神经网络能以任意精度逼近任何非线性连续函数。
在建模过程中的许多问题正是具有高度的非线性。
2.并行分布处理方式。
在神经网络中信息是分布储存和并行处理的,这使它具有很强的容错性和很快的处理速度。
3.自学习和自适应能力。
神经网络在训练时,能从输入、输出的数据中提取出规律性的知识,记忆于网络的权值中,并具有泛化能力,即将这组权值应用于一般情形的能力。
神经网络的学习也可以在线进行。
4.数据融合的能力。
神经网络可以同时处理定量信息和定性信息,因此它可以利用传统的工程技术(数值运算)和人工智能技术(符号处理)。
5.多变量系统。
神经网络的输入和输出变量的数目是任意的,对单变量系统与多变量系统提供了一种通用的描述方式,不必考虑各子系统间的解耦问题
算法的缺点:
收敛速度缓慢;容易陷入局部极小值;难以确定隐层数和隐层节点个数。
算法的改进:
利用动量法改进BP算法
标准BP算法实质上是一种简单的最速下降静态寻优方法,在修正时,只按照第步的负梯度方向进行修正,而没有考虑到以前积累的经验,即以前时刻的梯度方向,从而常常使学习过程发生振荡,收敛缓慢。
动量法权值调整算法的具体做法是:
将上一次权值调整量的一部分迭加到按本次误差计算所得的权值调整量上,作为本次的实际权值调整量,即:
其中:
α为动量系数,通常0<α<0.9;η—学习率,范围在0.001~10之间。
这种方法所加的动量因子实际上相当于阻尼项,它减小了学习过程中的振荡趋势,从而改善了收敛性。
动量法降低了网络对于误差曲面局部细节的敏感性,有效的抑制了网络陷入局部极小。
2.自适应调整学习速率
标准BP算法收敛速度缓慢的一个重要原因是学习率选择不当,学习率选得太小,收敛太慢;学习率选得太大,则有可能修正过头,导致振荡甚至发散。
可采用下图所示的自适应方法调整学习率。
调整的基本指导思想是:
在学习收敛的情况下,增大η,以缩短学习时间;当η偏大致使不能收敛时,要及时减小η,直到收敛为止。
3.动量-自适应学习速率调整算法
采用动量法时,BP算法可以找到更优的解;采用自适应学习速率法时,BP算法可以缩短训练时间。
将以上两种方法结合起来,就得到动量-自适应学习速率调整算法。
4.L-M学习规则
L-M(Levenberg-Marquardt)算法比前述几种使用梯度下降法的BP算法要快得多,但对于复杂问题,这种方法需要相当大的存储空间。
L-M(Levenberg-Marquardt)优化方法的权值调整率选为:
其中:
e—误差向量;J—网络误差对权值导数的雅可比(Jacobian)矩阵;μ—标量,当μ很大时上式接近于梯度法,当μ很小时上式变成了Gauss-Newton法,在这种方法中,μ也是自适应调整的。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数学 建模 BP 神经网络 论文