摘要:讨论了BP
神经网络学习过程中的假饱和现象和激励函数对输出值的影响,将修改激励函数和构建假饱和预防函数相结合,实现加快网络学习速率.通过引入距离熵揭示了实际输出值、期望输出值以及能量函数三者的内在关联.对BP网络的应用实例编制了仿真程序,并与标准的BP算法进行比较.结果表明改进算法的学习收敛性大大地优于标准BP算法.
原文链接:http://www.cqvip.com//QK/91942A/200503/16016848.html
送人玫瑰,手留余香~如您已下载到该资源,可在回帖当中上传与大家共享,欢迎来CDA社区交流学习。(仅供学术交流用。)