神经网络隐含层数的确定(收集3篇)
来源:
神经网络隐含层数的确定范文篇1
关键词:BP算法题库试题分值
引言
题库是保证考试题目具有较高质量、更好地达到教育测量目标的重要手段。随着计算机及网络技术,特别是人工智能技术在现代教育中的推广及应用,教育领域对电子测评有了很大的重视,更多地关注题库建设及智能组卷的研发。
目前,市面上已出现了各种各样的题库系统。实际上题库建设仍缺乏科学理论指导,尤其是在试题参数确定上,主观因素影响很大,使题库系统不能很好地实现预期的目标。例如,试题分值的确定一直没有一个很好的解决方案。传统的做法是采用难度赋分法和时间赋分法[1],而没有考虑其它因素的影响,如知识点数、知识点的重要程度等。考虑到试题分值与影响试题分值的参数之间的高度非线性关系,本文利用BP神经网络所具备的模拟人的思维、非线性变换和自学等功能来构建试题分值智能确定模型,以克服传统做法中各种随机性和主观性对分值的影响。
1基本原理和方法
利用已知样本对BP网络进行训练,使其获得专家经验和对确定试题分值的认识,当对新的样本进行处理时,该网络模拟人的思维并再现专家知识经验,达到客观地确定试题分值的目的,具体步骤是:
①提取确定试题分值的参数,量化处理为(0,1)内的精确值作为网络输入。
②利用已有的专家知识库(样本库),通过BP算法对网络进行训练,通过对网络参数及算法参数的调整得到稳定的网络参数――分数确定模型。为了能在实际应用中保证可接受的计算精度,我们在训练网络时,使它在更高的精度下收敛。
③输入需要确定分值的相关试题参数,网络根据自学获得的专家知识经验对输入值进行处理,然后输出(0,1)的值作为最终结果(该试题的分值)。
2分值确定的BP神经网络结构
本文分析总结出影响题库试题分值得7个参数(BP网络的输入向量),作为对该领域问题的首次研究,为了获得足够多的有代表性的训练样本,本文限制参数“题型”的取值为:1、2、3和4,分别代表单选题、多选题、判断改错题和填空题。根据考试理论、命题设计理论,属于这几类题型的每道试题所考察的知识点一般不超过3个,而且最适合考查识记、理解和应用三个认知水平。所以本文亦限制参数“知识点数”取[1,3]之间的整数,同时限制参数“认知层次”的取值为:1、2和3,分别代表识记、理解和应用。从而缩小了样本空间。7个参数的取值见表1。
在神经网络的应用中,网络结构的选择很重要,好的网络结构可以减少网络训练次数,提高网络学习精度。[2]隐含层数越多,神经网络学习速度就越慢,根据Kosmogorov定理,在合理的结构和恰当的权值条件下,3层BP神经网络可以逼近任意的连续函数,因此,我们选取了3层BP网络结构,如图1所示。
图1
其中,输入层节点数目n由影响试题分值参数个数确定,这里n=7,由于输出结果为一个试题分值,故输出节点数为m=1;在总结大量网络结构的基础上,得出隐含层神经元数目的经验公式为
由此本文初步确定隐含层的神经元数目为s=5。在实验仿真时,我们将动态调整隐含层的神经元数目,以获得网络
3调整BP算法
3.1动态调整隐含层单元数目和学习步长
如上所述,初步确定隐含层神经元数目为5,然后,通过人机交互,增加或减少隐含层神经元数目,分析比较全局误差的震荡程度、误差递减程度、误差稳定后的网络精确程度及网络的收敛性能,从而确定隐含层神经元数目。本文训练网络时既没有采用固定步长,也没有采用自适应调整步长的方法,而是采用人机交互动态调整的方法,笔者认为这样虽然麻烦,但对步长的调整是更智能的。
3.2选择模式对的方法及全局误差的计算
本文将所有的样本都存储在数据库中,并把2/3的样本作为训练样本,在选择模式对时,从训练样本的第一条记录开始一直到最后一条,如此循环。经过反复实验,验证了这种方法比随机选择的方法更加有效,表现为网络误差递减明显,基本不存在震荡。通过分析,笔者认为,在随机选择方法中,由于随机性,不能保证所有的代表性样本都被选中,使得样本不再代表整体,失去了样本的意义,致使误差递减缓慢,震荡明显,训练不得收敛。采用下式计算全局误差:
其中,fp是输出层的实际输出,y是期望输出,M为训练样本总数,E是全局误差,N为正整数,该值的选择要合理,否则会使网络进入局部极小值,或者误差递减缓慢,震荡明显,训练难于收敛。
4题库试题分值确定实例及分析
4.1样本的选取
样本应很好地代表整体,这就要求必须有足够训练样本,否则样本只能代表整体中的某一部分,这样即使网络训练到了很高的精度,当实际应用时会发现网络误差有时变得很大,根本无法使用。根据这一原则及确定试题分值得参数个数和每一参数的取值,我们至少需要22500个训练样本。考虑到获取样本的难度及分值确定所需要的实际精度,本文从我们正在研发的《计算机文化基础》课程的智能题库中提取了具有高度代表性800个训练样本和400个试验样本,由于题库中的试题的难度、区分度等参数是经过测试得到的,所以是比较可信的,答题时间及分值根据经验人为估算而得。为了提高网络精度,我们又组织了一个专门小组(三位相关专业的教授和7位信息技术教学论专业的硕士研究生)对1200个样本的估计答题时间及分值进行了比较严密的估算,估算值精确到0.1。估算方法是十位小组成员分别对每个样本的答题时间及分值估算,然后去掉一个最高分和一个最低分,把剩下的八个估算值计算加权平均值,所得的值即为最后的答题时间或分值。
4.2样本归一化处理
为了使归一化处理的结果尽可能均匀分布在[0,1]之间,本文采用了如下式所示的归一化方法:
4.3确定训练网络的精度
在实际中,我们通常以0.5的整数倍作为某一试题的分值,所以如果得到的BP网络模型能精确到0.1就可以了,然后根据类四舍五入的方法把它处理为0.5的整数倍的一个值。当结果的小数部分小于0.25时,则舍掉,当介于[0.25,0.75],则处理为0.5,大于等于0.75,则向整数进1。这是符合实际要求的。然而,经训练达到某一精度的网络在实际应用时,其误差总是围绕某固定值上下波动。特别是当样本的代表性较差时,更是如此。为此,我们在训练样本时,将网络的全局误差设置得比实际要求的更小。本研究将其设为10-5。
4.4网络训练过程
本研究在网络训练时,隐含层单元数动态调整,以得到更合适的隐含层单元数目。没有采用动量项(经试验,没有动量项效果更好),步长动态调整,将其初值设为1,然后根据误差递减情况以0.05的幅度在[0,1]之间调整。循环选择800个训练样本对网络进行训练,每循环m次计算一次全局误差,每循环n(n为m的整数倍)次观察记录一次误差变化情况,通过分析比较决定步长调整方向。训练网络的主要程序代码(c#)如下:
button3_Click(objectsender,EventArgse)
本文为全文原貌未安装PDF浏览器用户请先下载安装原版全文
{h_num=int.Parse(textBox1.Text.ToString());
//动态指定隐含层单元数
wj=newdouble[h_num];//输出-隐含权值
wij=newdouble[7,h_num];//隐含-输入权值
hvj=newdouble[h_num];//隐含层阈值
inti,j;
netj=newdouble[h_num];//隐含层输入向量
xi=newdouble[7];//输入层输入向量
comm2=conn1.CreateCommand();
hoj=newdouble[h_num];//隐含层输出向量
ej=newdouble[h_num];//隐含层的一般误差
//初始化权值、阈值、步长及动量系数
a=double.Parse(textBox2.Text.ToString());
//初始化输出节点阈值
doublee1=0.00001,E1=e1+1,E2=0;
intcount=0,count1=0;
for(i=0;i
{for(j=0;j
{hvj[j]=rand.Next(-100,100)*0.01;
wj[j]=rand.Next(-100,100)*0.01;
wij[i,j]=rand.Next(-100,100)*0.01;
}
}
//计算隐含层输
mandText="selectcount(*)fromgyhVIEW";
yb_count=(int)comm1.ExecuteScalar();
yb_count=yb_count*2/3;ybbh=0;
while(e1
{if(count
ybbh+=1;
if(ybbh>=yb_count+1)ybbh=1;
ybbh=rand.Next(1,yb_count+1);
mandText="select*fromgyhVIEW
where样本编号="+"’"+ybbh+"’";
dr1=comm2.ExecuteReader();
if(dr1.Read())
{for(i=0;i<7;i++)
xi[i]=double.Parse(dr1[i+1].ToString());
yt=double.Parse(dr1["y"].ToString());}
dr1.Close();
//计算隐含层输入和输出
for(j=0;j {netj[j]=0; for(i=0;i<7;i++) netj[j]+=wij[i,j]*xi[i]; netj[j]-=hvj[j];} for(j=0;j hoj[j]=1/(1+Math.Exp(-netj[j])); //计算输出层的输入和输出 net=0; for(j=0;j net+=wj[j]*hoj[j];net-=ov; yp=1/(1+Math.Exp(-net)); //计算输出层和隐含层的一般误差 d=(yt-yp)*yp*(1-yp); for(j=0;j ej[j]=wj[j]*d*hoj[j]*(1-hoj[j]); //修正wj和ov for(j=0;j wj[j]=wj[j]+p*d*hoj[j]; ov=ov+n*d; //修正wji和hovj for(j=0;j {for(i=0;i<7;i++) wij[i,j]=wij[i,j]+a*ej[j]*xi[i]; hoj[j]=hoj[j]+ej[j]*u;} E2+=Math.Pow((yt-yp),2);count+=1; if(count>=3*yb_count) {E1=E2/3*yb_count;count=0;count1+=1; if(count1>=1000) {if(MessageBox.Show(E1.ToString()+"a="+a.ToString()+"减小步长?","提示信息", MessageBoxButtons.OKCancel, MessageBoxIcon.Question)==DialogResult.OK) {a-=0.05;} if(MessageBox.Show(E1.ToString()+"增加步长?","提示信息", MessageBoxButtons.OKCancel, MessageBoxIcon.Question)==DialogResult.OK) {a+=0.05;}count1=0;}}} 通过反复训练和比较分析,最后将网络隐含层单元数目确定为6,每循环3次计算一次全局误差,次每循环3000次观察记录一次误差变化情况,学习步长从1调整到0.65,最后在0.65时收敛。共训练了1128万次。模型稳定后,输入层与隐含层的连接权值如图3所示(其中i表示输入层单元序号,wij表示输入层单元i与隐含层单元j的连接权值),隐含层与输出层的连接权值及隐含层阈值如图4所示(其中j表示隐含层单元序号),输出层阈值为-33.05475。 观察分析网络模型的测试误差,基本都小于0.005,最小值为0.0001399517,最大值为0.01044011,完全满足题库试题分值确定所要求的精度(0.1),符合实际用需求。 结束语 本文将BP神经网络应用到题库试题分值的确定中,为题库试题分值得确定提供了一种可行的方法。在应用BP算法时,动态调整隐含层单元数目,动态调整学习步长,采用循环选择训练样本的模式对选择方法,经过特定次数的循环训练后计算一次全局误差。所有这些均源于本模型的准确建构。另外,如果训练样本能够很好地代表整体,用这种方法将能建立精度更高的确定试题分值的智能模型。 参考文献: [1]胡中锋,李方.教育测量与评价[M].广东高等教育出版社,2003.7. [2]Hadi,MuhammadN.S.Neuralnetworksapplicationsinconcretestructures.ComputersandStructuresVolume:81,Issue:6,March,2003,pp.373-381. [3]姜华,赵洁.基于BP神经网络的学习行为评价模型及实现[J].计算机应用与软件,2005.22,(8):89-91. [4]戴永伟,雷志勇.BP网络学习算法研究及其图像识别应用[J].计算机与现代化,2006.11:68-70. [5]宋乃华,邢清华.一种新的基于粒群优化的BP网络学习算法[J].计算机工程,2006.14:181-183. 基金项目:全国教育科学“十一五”规划教育考试学研究重点课题项目(2006JKS3017);山西省教育科学“十一五”规划课题(GH-06106)。 【关键词】模糊神经网络;异步电动机;故障诊断 1.引言 异步电动机作为人们日常生活和工业生产的主要驱动装置和动力装置,具有广泛的应用范围已成为人们生活生产中不可或缺的重要装置。据资料显示,90%的工业生产原动力是大型异步电动机。各种小型的电动机也广泛的应用于人们的日常生活中比如一些风扇、冰箱等家电。显而易见,电动机的正常工作对保证工业生产和日常生活的低耗、优质、高效和安全运行意义重大。由此看出,电机一旦发生故障甚至停机,必将带给个人生活和企业的生产带来不便和损失。因此,对于电机故障的准确和及时地诊断并加以排除具有较大的意义。 2.异步电动机常见故障及诊断方法 异步电动机常见故障按照发生位置不同主要分为定子绕组故障、转子绕组故障、轴承故障等几类。根据多年经验研究以及对电动机故障的分析,其故障发生概率分别为30%、10%、15%。根据异步电动机的结构特点可知,其系统主要分为机械系统和电气系统,机械系统故障包括偏心故障及轴承故障,而电气系统故障包括定子绕组和转子绕组故障。根据异步电动机的常见故障发生概率以及针对性,故本文主要是对定子匝间短路、转子断条、转子偏心故障、轴承内圈故障进行诊断分析研究。 目前,用于电机故障诊断的常用技术包括:定子电流检测法、振动检测法、温度检测法等传统的故障诊断方法一般是在实际测量的参数基础上,用数学的(FFT)、信号处理(小波分析)等方法对测量参数进行故障特征参数的提取,对故障特征参数进行分析来确定其故障。测量的参数主要包括定子电流、电机温度、振动、噪声等信号。以上方法各有自己的优点和特点,一般根据实际情况和研究对象来选择合适的方法。在本文主要采用定子电流频谱分析法和振动信号时域均方根分析法。当异步电动机发生故障时,就是改变正常的气隙磁通波形,进而改变定子电流频率波形,对采集到的定子电流信号进行频谱分析可以判断出电机故障类型。而振动信号的故障分析同上,只是采用的是时域的均方根特征,因为它是振动信号一个广泛的特征参数。 3.模糊神经网络构建 神经网络与模糊逻辑的建立有多种方式,将模糊逻辑引入神经网络中,对模糊网络的输入数据进行模糊化预处理。本文将采用上面的模糊神经网络建立方法。 3.1神经网络结构、输入和输出神经元个数的确定 对于BP神经网络,有一个非常重要的定理,是对任何在闭区间内的一个连续函数都可以用单隐层的网络来逼近。因而一个三层BP网络就可以完成任意的n维到m维的映射,增加隐含层固然可以提高神经网络的处理能力,但同时也使网络的规模增大,结构变得复杂。加大了计算工作量及模式样本数量。这样一来,使网络的训练时间变长,所以增加一个隐层是可以的,但BP神经网络隐层数一般不超过两层。本文采用只包含一个隐层的BP神经网络对电机发生的故障进行诊断。 根据本文研究的故障诊断对象,是通过5个不同位置的振动信号和对应的2个定子电流特征频率的检测来分析和诊断,故确定网络输入是一个7维向量,即输入神经元个数为7个。由于本文研究的电机故障包括4种模式(定子匝间短路,转子断条,转子偏心,轴承内圈),其对应的定子电流特征频率为(147.8Hz,245.6Hz,47.7Hz,52.3Hz,707.8Hz,807.9Hz,710.6Hz,950.9Hz)。接下来确定网络输出模式。神经网络输入数据是提取相应特征频率的幅值,输出是对故障进行相应的编码。从而建立故障模式与故障原因之间的映射关系,谁发生故障谁的期望输出位是1,否则为0。因此网络的神经元输出为4个,可采用如下输出: 1)匝间短路(1,0,0,0) 2)转子断条(0,1,0,0) 3)转子偏心(0,0,1,0) 4)轴承内圈(0,0,0,1) 3.2训练样本数据的处理 在神经网络进行故障诊断过程中,一般要对数据进行预处理,数据预处理是指通过变换将网络的输入、输出数据限制在(0,1)或(-1,1)区间内。由于数据的取值比较分散,采集的各数据单位有时不一致,因此须对数据进行归一化处理,消除量纲的影响。所谓归一化就是要把需要处理的数据经过处理后限制在一定范围内,归一化是为了后面数据处理的方便,保证程序运行时收敛加快。 BP网络的神经元均采用sigmoid转移函数,变化后可防止因净输入的绝对值过大而使神经元输出饱和,继而使权值调整进入误差曲面的平坦区。Sigmid转移函数的输出在(0,1)或(-1,1)之间,作为教师信号的输出数据如不进行处理,就会使数值大的输出分量绝对误差大,数值小的输出分量绝对误差小,网络训练时只针对输出的总误差调整权值,其结果是在总误差中份额小的输出分量相对误差较大。对输出量进行归一化变换后这个问题可迎刃而解,如果直接用原始数据处理,则可能导致数据误差增大,收敛性下降,甚至不收敛。故对特征值和幅值进行归一化处理,其归一化公式如下: 利用高斯型隶属度函数(式4、5、6)对输入数据进行模糊化处理,对上述每组7个输入模糊化将得到4组,每组21个的模糊量。 3.3隐含层神经元个数选取 对于BP神经网络来说,隐含层神经元个数的确定是非常重要的,一般认为隐含层神经元个数过多或过少都会导致神经网络的性能不佳。因此根据前人的经验可以参照以下公式进行隐含层神经元数的设定。隐含层数:(其中为隐含层节点数,m为输出层节点数,n为输入层节点数,a为[1,10]之间的常数),确定。为6-15。 对于隐含层神经元个数确定的问题,本文采用试凑法,在其它参数不变的情况下,选用同一样本集进行网络训练,设定相同的目标误差,比较训练步数,从中确定网络误差最小所对应的隐层神经元个数。故障珍断的神经网络模型为3层,分别是输入层,隐含层和输出层。输入层神经元个数为21,输出层神经元个数为4。 运用MATLAB2010神经网络工具箱,针对同一组训练样本,选取不同的隐含层神经元个数,采用trainglm自适应修改学习率算法,训练目标为10-5,分别对网络训练1000次。 隐含层取不同的神经元节点经训练后得出结果如表2。 从以上训练结果表中可以得到,当隐含层神经元个数为13个时,网络训练的误差最低为1.2387e-007。此时经过9次迭代达到训练设定的精度。所以隐含层神经元个数最后确定为13个。因此本文故障诊断采用的BP神经网络是21-13-4的三层结构。模糊神经网络误差收敛图如图1。 3.4模糊神经网络分析结果 输出结果: [11.2768e-0111.5529e-0111.3627e-011; 3.5896e-00513.9006e-0053.87979e-05; 3.1034e-0050.000345630.999970.00032671; 4.23123e-052.3578e-111.2323e-050.99989] 根据上述的输出结果,误差5%,满足诊断要求,故证明使用模糊神经网络对异步电动机进行故障诊断是可行的,满足实际需求。 4.结论 针对异步电动机的各种故障特点,提出将神经网络和模糊逻辑结合的模糊神经网络的诊断方法,利用模糊逻辑对输入数据进行模糊化处理,然后将模糊化后的输入导入神经网络中进行诊断分析,最后得到的结果基本满足误差需求,达到故障诊断的要求,证明了模糊神经网络在异步电动机故障诊断应用中的可行性。 参考文献 [1]王江萍.神经网络信息融合技术在故障诊断中的应用[J].石油机械,2009,8:27-30. [2]孙向作,潘宏侠.基于多传感器数据融合的电机故障诊断[J].微计算机信息,2008,24(9):218-219. [3]王笑宇.基于BP神经网络的感应电动机故障诊断技术研究[D].桂林理工大学硕士论文,2009. 关键词人工神经网路林分材种出材率BP算法 引言 林分材种出材率是林分调查工作的重要指标,它可以进一步评价森林木材资源的经济价值,而研究森林木材,又可以合理正确的经营森林资源,达到人与自然和谐相处的目的。林分林种出材率就是原木材积于立木材积之比,我国现行的森林采伐限额制度、查处乱砍滥伐林木案件、制订林业发展规划、计划和编制森林经营方案、预测和计算、开展森林资源资产评估等等,都需掌握积蓄量和材种的出材率的指标。我国已经不断学习借鉴前苏联的先进技术编制自己的材种出材率表了,随着我国天然林保护工程的全面实施和林业分类经营的逐步推行,人工商品林比例的不断提高,我国森林结构和性质也有所变化,所以传统的统计学以难以解决很多问题,运用人工神经网络在林业生成与运用则是一个不二之选的方法,对林业的发展也有很大的理论价值和推广意义。 人工神经网络(ArtificialNeuralNetwork-ANN),简称“神经网络”,是由大量处理单元过极其丰富和完善的互联组成的非线性、自适应信息处理系统。它的提出是基于现代神经科学研究成果上,以模拟大脑神经网络处理、记忆信息的方式进行信息处理。涉及学科较多,较为广泛。 1研究内容和方法 平均树高,平均胸径,林种年龄,立地质量,积蓄量,保留密度等等因素都会影响林分材种出材率,而林分林种出材率具有非线性和非确定性的因素,一般采用统计分析方法进行预测采样,需要大量的林木样本元素,模型涉及的许多参数无法或很难有较高的精确度。 人工神经网络(ArtificialNeuralNetwork)具有非线性,非局限性,自适应,自组织,自学习的特征,相较于传统的统计学方法,不同之处在于它的容错性和储存量,通过单元之间的相互作用,相互连接能模拟大脑的局限性。ANN的独到之处,也使得人们注意了ANN,并且广泛的应用于各种学科之中,如心理学,逻辑学,数学模型,遗传算法,语音识别,智能控制等等。当然,运用人工神经网络对林分林种出材率进行预测也同样具有很好的效果与实现。 研究主要完成,通过对数据的采样和分析处理,对神经网路预测模型的结构,参数进行优化,再应用到林分材种出材率的预测中。以c++程序设计为设计平台,运用人工神经网络中的BP算法,分析各隐含层神经元的数量,训练的次数,隐含层函数,样本数量,进行优化建立林分材种出材率的预测模型。 1.1BP人工神经网络 BP(Back-PropagationNetwork)神经网络是一种以误差逆传播算法(BP)训练的多层前馈网络,目前应用较为广泛的神经网络模型之一。BP神经网络能学习和存贮多个输入-输出模式映射关系,而且无需事前对这种映射关系的数学方程进行描述。它通过不断反向传播来调整神经网络的权值和阈值,使神经网络的误差平方和最小。BP神经网络模型拓扑结构由三层组成分别是输入层(input)、隐层(hidelaver)和输出层(outputlayer)。 BP人工神经网络主要以标准BP算法为主,而标准BP算法有存在许多问题,由于是非线性梯度优化算法,就会存在局部极小值问题,使得精确度受限;算法迭代系数过多,使得学习率降低,收敛速度降低;网络对初始化的值存在发散和麻痹;隐节点不确定性的选取。所以引进了几种BP算法:动量BP算法、学习速率可变的BP算法和LM算法(Levenberg-Marquardt)。动量BP算法以上一次修正结果来影响本次的修正,动量因子越大,梯度的动量就越大。学习效率可变的BP算法怎是力求算法的稳定,减小误差。为了在近似二阶训练速率进行修正时避免计算HeSSian矩阵,选择LM算法。所以为了神经网络计算的速度与精确度,所以运用不同的优化算法来改善BP网络中的局部极小值问题,提高收敛速度和避免了抖动性。 2基于BP人工神经网络和林分材种出材率预测模型的建立 分析了大量的材种出材率的相关资料后,均有非线性的特征,对于模型的建立和预测,传统的识别系统在研究和实践中有很大的问题,而采用人工神经网络,不仅其特征是非线性,而且人工神经网络具有较为稳定的优越性,所以,对于林分材种出材率的预测和建立采用BP人工神经网络。 2.1建模工具 研究采用c++程序设计对数值的计算和预测,对模型进行编译和实现。c++语言是受到非常广泛应用的计算机编程语言,它支持过程化程序设计,面向对象程序设计等等程序设计风格。c++是一门独立的语言,在学习时,可以结合c语言的知识来学习,而c++又不依赖于c语言,所以我们可以不学c语言而直接学习C++。 用c++来模拟BP网络是相对较好的程序设计语言,以面向对象程序设计来设计和实现林分材种出材率的BP算法,直观而简洁。 2.2BP神经网络结构的确定 对于使用BP算法,关键在于隐含层层数和各层节点数。而神经元的输入输出又影响着隐含层层数,而对于BP万罗中的输入输出层是确定的,重点就在于隐含层层数,增加隐含层数可以提高网络的处理能力,是的训练复杂化,样本数目增加,收敛速度变慢等,而隐含层的节点数越多,可以提到其精确度。 研究过程中,多层隐含层会将训练复杂化,所以我们往往选择三层就够了,即一个输入层,一个隐含层,一个输出层的基本单层BP网络结构。最后确定以下四个神经元:平均树高、平均胸径、林种年龄、每公顷积蓄量作为输入单元。输出单元为林分材种出材率。 结论 以BP神经网络建立林分材种出材率的网络模型,使得出材率的精确度提高。根据样本的选取和整理,算法的优化,避免了异常数据和算法的不安全性对神经网络的学习影响,提高了网络的繁华能力,利用数据归一化节约了网络资源,学习负担减轻,避免了训练过程中的抖动与麻痹状态。岁模型的总体分析,减少神经元个数的输入,权值减少,极大的提高了网络训练中的收敛速度,也使得网络的稳定性和容错性提高。神经网络隐含层数的确定范文篇2
神经网络隐含层数的确定范文篇3
介绍自己的家乡作文300字(精选30篇)
- 阅7介绍自己的家乡作文 篇1 家乡和名片,是人们最熟悉的名词。家乡,是人一出生就居住的地方;名片,就是一张卡片上写着自己的信息,可以用它向别人介绍自己。那么,就让我们为自己的家.....
2023宝宝双胞胎男孩名字精选
- 阅12选择双胞胎男孩的名字 - 第一星座网黄历星座生肖批命双胞胎男孩的名字选择第一星座网络 作者: 匿名11028人在看 我们都说 ‚ 婴儿是上帝送给父母的最好的礼物 ‚ 也是父.....
九一八事变国旗下的讲话稿精选模板
- 阅0国共两党作为当时中国的两大政党,九一八事变后,民族团结也日益增强,两党的民族使命感迅速增强,两党的再次合作,共同抵抗日本帝国主义的侵略的新局面,实现了民族大团结。下面是小编.....
防台风安全应急预案精选模板2025
- 阅0短时间的超量降水和持续不断降水,会在局部地区乃至更广阔的地区造成洪涝,既有的水利设施、防汛设施和防汛手段,以及援救手段不足以立刻生效或者立刻实现全面救援。下面是小编为.....
中专生实习证明(8篇)
阅:0中专生实习证明篇1兹有__________________________________学校_______________________专业_________同学....
神经网络隐含层数的确定(收集3篇)
阅:0神经网络隐含层数的确定范文篇1关键词:BP算法题库试题分值引言题库是保证考试题目具有较高质量、更好地达到....
小学三年级美术教学工作总结范文(5篇)
阅:0小学三年级美术教学工作总结篇1转眼间,一学期的工作已近尾声。本学期我担任三年级的美术教学工作,经过一学期....
