碧波液压网 欢迎你,游客。 登录 注册

BP人工智能神经网络拓扑结构及算法

版权信息:站内文章仅供学习与参考,如触及到您的版权信息,请与本站联系。

  BP (Back Propagation) 智能神经网络是1986 年由 Rumelhart 和 McCelland 为首的科学家小组提出的,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP 网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。

  1 BP网络的拓扑结构

  BP神经网络模型拓扑结构包括输入层(input layer)、隐层(hide layer) 和输出层(outputlayer)。BP 网络是阶层型神经网络,隐层可扩展为多层。相邻层之间各神经元进行全连接,而每层各神经元之间无连接。BP网络按有教师示教的方式进行学习,当一对学习模式提供给网络后,各神经元获得网络的输入响应产生连接权值(Weight)。然后按减小希望输出与实际输出误差的方向,从输出层经各中间层逐层修正各连接权,回到输入层。此过程反复交替进行,直至网络的全局误差趋向给定的极小值,即完成学习的过程。

  2 BP 网络算法

  BP 算法由数据流的前向计算(正向传播)和误差信号的反向传播两个过程构成。正向传播时,传播方向为输入层→隐层→输出层,每层神经元的状态只影响下一层神经元。若在输出层得不到期望的输出,则转向误差信号的反向传播流程。通过这两个过程的交替进行,在权向量空间执行误差函数梯度下降策略,动态迭代搜索一组权向量,使网络误差函数达到最小值,从而完成信息提取和记忆过程。

  3 BP 算法的改进

  BP 算法理论具有依据可靠、推导过程严谨、精度较高、通用性较好等优点,但标准 BP算法存在以下缺点:收敛速度缓慢;容易陷入局部极小值;难以确定隐层数和隐层节点个数。在实际应用中,BP 算法很难胜任,因此出现了很多改进算法。

  3.1 利用动量法改进 BP 算法标准

  BP 算法实质上是一种简单的最速下降静态寻优方法,在修正 W(K)时,只按照第 K步的负梯度方向进行修正,而没有考虑到以前积累的经验,即以前时刻的梯度方向,从而常常使学习过程发生振荡,收敛缓慢。动量法权值调整算法的具体做法是:将上一次权值调整量的一部分迭加到按本次误差计算所得的权值调整量上,作为本次的实际权值调整量,即:

  其中:α为动量系数,通常0<α<0.9;η-学习率,范围在0.001~10之间。这种方法所加的动量因子实际上相当于阻尼项,它减小了学习过程中的振荡趋势,从而改善了收敛性。动量法降低了网络对于误差曲面局部细节的敏感性,有效的抑制了网络陷入局部极小。

你没有登陆,无法阅读全文内容

您需要 登录 才可以查看,没有帐号? 立即注册

标签: 神经网络
点赞   收藏

相关文章

发表评论

请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。

用户名: 验证码:

最新评论