建立BP神经网络地面沉降预测模型
。
基坑降水引起地面沉降的BP神经网络预测模型建模过程如下:(1)样本选择因基坑降水引起的地面沉降量和距离基坑的距离关系密切,因此建模选用“基坑降水引起沉降工程数据(第二类)”(见表4.1)中的相关数据作为样本进行学习训练和检验。
(2)BP神经网络结构设计对于BP网络,对于任何在闭区间内的一个连续函数都可以用单隐层的BP网络逼近,因而一个三层BP网络就可以完成任意的n维到m维的映射。
根据网络结构简单化的原则,确定采用三层BP网络结构,即输入层为沉降点距基坑的距离L(m)、等效压缩模量E(MPa)、水位降深H(m)和支护刚度n四个参数,输出层为地面累积沉降量(mm),隐层层数为1层。
隐层的神经元数目选择是一个十分复杂的问题,往往需要根据设计者的经验和多次实验来确定,因而不存在一个理想的解析式来表示。隐单元的数目与问题的要求,与输入、输出单元的数目有直接的关系。
隐单元数目太多会导致学习时间过长,误差不一定最佳,也会导致容错性差、不能识别以前没有看到的样本,因此一定存在一个最佳的隐单元数。
研究通过一次编程比较了隐层神经元个数分别为5、10、15、20、25、30、40时训练速度及检验精度。
图4.2BP神经网络程序框图(3)网络训练及检验BP网络采用梯度下降法来降低网络的训练误差,考虑到基坑降水地面沉降范围内沉降量变化幅度较小的特点,训练时以训练目标取0.001为控制条件,考虑到网络的结构比较复杂,神经元个数比较多,需要适当增加训练次数和学习速率,因此初始训练次数设为10000次,学习速率取0.1,中间层的神经元传递函数采用S型正切函数tansig,传输函数采用logsig,训练函数采用trainlm,选用38组数据中的33组作为训练样本,5组作为检验样本。
(4)网络实现及检验效果使用MATLAB6.0编程建立基于BP神经网络的基坑降水地面沉降预测模型(程序代码见附件1),其训练误差及检验效果如下:图4.3训练误差曲线图4.4预测误差曲线由图4.3、图4.4可见:样本数据收敛,训练误差较小,中间层神经单元个数为10时预测精度较好,误差小于20%,误差满足工程需求。
谷歌人工智能写作项目:爱发猫
神经网络建模问题
小波神经网络的建模怎么确定隐含层的神经元个数
确定隐层节点数的方法为“试凑法”。隐含神经元的数目是非常重要的,它的选取结果直接影响到网络的性能好坏。
如果隐含层的神经元数量太少,网络就不能够很好的学习,即便可以学习,需要训练的次数也非常多,训练的精度也不高。
当隐含层神经元的数目在一个合理的范围内时,增加神经元的个数可以提高网络训练的精度,还可能会降低训练的次数。
但是,当超过这一范围后,如果继续增加神经元的数量,网络训练的时间又会增加,甚至还有可能引起其它的问题。
那么,究竟要选择多少个隐含层神经元才合适呢?遗憾的是,至今为止还没有理论规定该如何来确定网络隐含层的数目。所以,只能用尝试的方法来寻找最适宜的隐含层神经元数目。
本文采取的做法是:构建多个BP网络,它们除了隐含层神经元个数不同外,其它一切条件都相同,通过比较它们训练的循环次数和网络精度,找到最佳的神经元个数。小波神经网络的隐层设计原则也遵循这个方法。
也有一些经验公式,可以作为参考。
使用神经网络用matlab进行建模,最后的权重值要输出么,怎么输出?得出的模型怎么用来验证和预测? 20
。
得出的权值要回赋给这个神经网络,权值就好像黑匣子里边的未知的东西,你通过训练数据得到最佳权值后把它赋给这个黑匣子,黑匣子就成了已知得了,给它一组输入运行就会有相应的输出y,这个输出是我们预测的,需要跟实际的输出比较得出误差,误差大证明系统模型不好,误差小说明系统模型更接近真实的系统,至于权值怎么赋给模型,网上有代码,粒子群优化bp神经网络,遗传算法优化神经网络的都有,我也是看了一段时间,理解的不深刻,建模主要是通过已知的输入输出数据训练网络的权值和阈值,我现在在学习锅炉系统建模和优化,大家可以一起交流学习qq191991427。
关于Matlab BP神经网络建模的问题 50
假设输入的是5个参数,输出1个参数。神经网络的节点结构为5-N-1(N是中间层节点数,数目根据实验效果确定,可选5~10个)关于输入延迟,不清楚意思。
是否可以做这样的数据处理:假设t时间的5个输入数据和t+1时间的1个输出数据对应,则以这一对数据作为训练样本,也不需要其理解神经网络中的延时处理机制。
训练函数写法:net=train(net,t时间的输入数据,t+1时间的输入数据);。
数学建模 有一种学派 叫神经网络派 无论什么问题
一种神经网络建模方法。属于智能信息处理技术领域。
基于结构风险最小化原则,结合合作协作进化算法,同时进行神经网络的网络结构和连接权值学习,最终得到网络结构和连接权值之间最优折衷,方法具体包括数据处理、网络学习和网络估计预测三个基本步骤。
同时进行网络结构和连接权值的学习,较好地解决了传统神经网络学习中存在的结果与初始值相关、收敛速度慢、易陷于局部最小值、误差函数必须可导、过学习等实际问题,提高了网络的学习能力和泛化能力。
可应用于心脏病智能诊断、工业领域中的故障诊断、软测量等,经济领域的股票价格预测、商品价格预测等。