深度神经网络的主要模型有哪几种类型
有哪些深度神经网络模型?目前经常使用的深度神经网络模型主要有卷积神经网络(CNN)、递归神经网络(RNN)、深信度网络(DBN)、深度自动编码器(AutoEncoder)和生成对抗网络(GAN)等。
递归神经网络实际.上包含了两种神经网络。
一种是循环神经网络(RecurrentNeuralNetwork);另一种是结构递归神经网络(RecursiveNeuralNetwork),它使用相似的网络结构递归形成更加复杂的深度网络。
RNN它们都可以处理有序列的问题,比如时间序列等且RNN有“记忆”能力,可以“模拟”数据间的依赖关系。卷积网络的精髓就是适合处理结构化数据。
关于深度神经网络模型的相关学习,推荐CDA数据师的相关课程,课程以项目调动学员数据挖掘实用能力的场景式教学为主,在讲师设计的业务场景下由讲师不断提出业务问题,再由学员循序渐进思考并操作解决问题的过程中,帮助学员掌握真正过硬的解决业务问题的数据挖掘能力。
这种教学方式能够引发学员的独立思考及主观能动性,学员掌握的技能知识可以快速转化为自身能够灵活应用的技能,在面对不同场景时能够自由发挥。点击预约免费试听课。
谷歌人工智能写作项目:神经网络伪原创
主流的深度学习模型有哪些?神经网络模型有几种分类方法,试给出一种分类神经网络模型的分类人工神经网络的模型很多,可以按照不同的方法进行分类。其中,常见的两种分类方法是,按照网络连接的拓朴结构分类和按照网络内部的信息流向分类。
1按照网络拓朴结构分类网络的拓朴结构,即神经元之间的连接方式。按此划分,可将神经网络结构分为两大类:层次型结构和互联型结构。
层次型结构的神经网络将神经元按功能和顺序的不同分为输出层、中间层(隐层)、输出层。输出层各神经元负责接收来自外界的输入信息,并传给中间各隐层神经元;隐层是神经网络的内部信息处理层,负责信息变换。
根据需要可设计为一层或多层;最后一个隐层将信息传递给输出层神经元经进一步处理后向外界输出信息处理结果。
而互连型网络结构中,任意两个节点之间都可能存在连接路径,因此可以根据网络中节点的连接程度将互连型网络细分为三种情况:全互连型、局部互连型和稀疏连接型2按照网络信息流向分类从神经网络内部信息传递方向来看,可以分为两种类型:前馈型网络和反馈型网络。
单纯前馈网络的结构与分层网络结构相同,前馈是因网络信息处理的方向是从输入层到各隐层再到输出层逐层进行而得名的。
前馈型网络中前一层的输出是下一层的输入,信息的处理具有逐层传递进行的方向性,一般不存在反馈环路。因此这类网络很容易串联起来建立多层前馈网络。反馈型网络的结构与单层全互连结构网络相同。
在反馈型网络中的所有节点都具有信息处理功能,而且每个节点既可以从外界接受输入,同时又可以向外界输出。
常见的深度学习算法主要有哪些?深度学习常见的3种算法有:卷积神经网络、循环神经网络、生成对抗网络。
卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是深度学习的代表算法之一。
循环神经网络(RecurrentNeuralNetwork,RNN)是一类以序列数据为输入,在序列的演进方向进行递归且所有节点(循环单元)按链式连接的递归神经网络。
生成对抗网络(GAN,GenerativeAdversarialNetworks)是一种深度学习模型,是最近两年十分热门的一种无监督学习算法。
简述深度学习的基本方法。深度学习,需要怎么做到?
最佳答案1、深度学习,首先要学会给自己定定目标(大、小、长、短),这样学习会有一个方向;然后要学会梳理自身学习情况,以课本为基础,结合自己做的笔记、试卷、掌握的薄弱环节、存在的问题等,合理的分配时间,有针对性、具体的去一点一点的去攻克、落实。
2、可以学习掌握速读记忆的能力,提高学习复习效率。速读记忆是一种高效的学习、复习方法,其训练原理就在于激活“脑、眼”潜能,培养形成眼脑直映式的阅读、学习方式。
速读记忆的练习见《精英特全脑速读记忆训练》,用软件练习,每天一个多小时,一个月的时间,可以把阅读速度提高5、6倍,记忆力、注意力、思维、理解力等也会得到相应的提高,最终提高学习、复习效率,取得好成绩。
如果你的阅读、学习效率低的话,可以好好的去练习一下。3、要学会整合知识点。把需要学习的信息、掌握的知识分类,做成思维导图或知识点卡片,会让你的大脑、思维条理清醒,方便记忆、温习、掌握。
同时,要学会把新知识和已学知识联系起来,不断糅合、完善你的知识体系。这样能够促进理解,加深记忆。4、做题的时候要学会反思、归类、整理出对应的解题思路。
遇到错的题(粗心做错也好、不会做也罢),最好能把这些错题收集起来,每个科目都建立一个独立的错题集(错题集要归类),当我们进行考前复习的时候,它们是重点复习对象,保证不再同样的问题上再出错、再丢分。
深度神经网络是什么意思?深度神经网络是机器学习(ML,MachineLearning)领域中一种技术。在监督学习中,以前的多层神经网络的问题是容易陷入局部极值点。
如果训练样本足够充分覆盖未来的样本,那么学到的多层权重可以很好的用来预测新的测试样本。
但是很多任务难以得到足够多的标记样本,在这种情况下,简单的模型,比如线性回归或者决策树往往能得到比多层神经网络更好的结果(更好的泛化性,更差的训练误差)。
扩展资料:非监督学习中,以往没有有效的方法构造多层网络。多层神经网络的顶层是底层特征的高级表示,比如底层是像素点,上一层的结点可能表示横线,三角。而顶层可能有一个结点表示人脸。
一个成功的算法应该能让生成的顶层特征最大化的代表底层的样例。如果对所有层同时训练,时间复杂度会太高;如果每次训练一层,偏差就会逐层传递。这会面临跟上面监督学习中相反的问题,会严重欠拟合。
如何用神经网络实现连续型变量的回归预测?神经网络最开始是机器学习的一种模型,但其训练的时间和其他几种模型相比不占优势,且结果也不尽人意,所以一直没有被广泛使用。
但随着数学的深入研究以及计算机硬件质量的提高,尤其是GPU的出现,给深度学习的广泛应用提供了基础。
GPU最初是为了给游戏玩家带来高质量的视觉体验,由于其处理矩阵运算的能力特别优秀,也被用于深度学习中模型的训练,以往数十天才能训练好的模型在GPU上训练几天就可以训练好,大大减少了深度学习的训练时间,因而深度学习的应用越来越多。
神经网络作为深度学习最主要的模型,人工神经网络ANN是最基础的神经网络结构,其工作原理很像人类大脑中的神经。
神经元是ANN的工作单元,每个神经元含有权重和偏置,神经元将上一层神经元传递过来的值通过权重和偏置的运算,得到新的结果,将该结果传递给下一层神经元,通过不断的传递,最终获得输出结果。
要想用神经网络实现连续型变量的回归预测,需要将该N维变量的数据作为输入,中间再设置隐藏层和每一层的神经元个数,至于隐藏层的层数则需要多次训练才能得出较准确的层数。
而最后输出层的值和实际变量的值会有误差,神经网络会通过不断地训练,更改权重和偏置的值来使误差尽可能的小,当误差小到一定程度,该神经网络的回归预测就算成功了。
通常使用Python来搭建神经网络,Python自带深度学习的一些库,在进行回归预测时,我们只需用调用函数,设定几个参数,如隐藏层层数和神经元个数等,剩下的就是等模型自行训练,最终便能完成回归预测,非常的方便。
神经网络按功能分为几类,神经网络分为几种类型
神经网络有哪些主要分类规则并如何分类?神经网络模型的分类人工神经网络的模型很多,可以按照不同的方法进行分类。其中,常见的两种分类方法是,按照网络连接的拓朴结构分类和按照网络内部的信息流向分类。
1按照网络拓朴结构分类网络的拓朴结构,即神经元之间的连接方式。按此划分,可将神经网络结构分为两大类:层次型结构和互联型结构。
层次型结构的神经网络将神经元按功能和顺序的不同分为输出层、中间层(隐层)、输出层。输出层各神经元负责接收来自外界的输入信息,并传给中间各隐层神经元;隐层是神经网络的内部信息处理层,负责信息变换。
根据需要可设计为一层或多层;最后一个隐层将信息传递给输出层神经元经进一步处理后向外界输出信息处理结果。
而互连型网络结构中,任意两个节点之间都可能存在连接路径,因此可以根据网络中节点的连接程度将互连型网络细分为三种情况:全互连型、局部互连型和稀疏连接型2按照网络信息流向分类从神经网络内部信息传递方向来看,可以分为两种类型:前馈型网络和反馈型网络。
单纯前馈网络的结构与分层网络结构相同,前馈是因网络信息处理的方向是从输入层到各隐层再到输出层逐层进行而得名的。
前馈型网络中前一层的输出是下一层的输入,信息的处理具有逐层传递进行的方向性,一般不存在反馈环路。因此这类网络很容易串联起来建立多层前馈网络。反馈型网络的结构与单层全互连结构网络相同。
在反馈型网络中的所有节点都具有信息处理功能,而且每个节点既可以从外界接受输入,同时又可以向外界输出。
谷歌人工智能写作项目:神经网络伪原创
人工神经网络有哪些类型人工神经网络模型主要考虑网络连接的拓扑结构、神经元的特征、学习规则等好文案。目前,已有近40种神经网络模型,其中有反传网络、感知器、自组织映射、Hopfield网络、波耳兹曼机、适应谐振理论等。
根据连接的拓扑结构,神经网络模型可以分为:(1)前向网络网络中各个神经元接受前一级的输入,并输出到下一级,网络中没有反馈,可以用一个有向无环路图表示。
这种网络实现信号从输入空间到输出空间的变换,它的信息处理能力来自于简单非线性函数的多次复合。网络结构简单,易于实现。反传网络是一种典型的前向网络。
(2)反馈网络网络内神经元间有反馈,可以用一个无向的完备图表示。这种神经网络的信息处理是状态的变换,可以用动力学系统理论处理。系统的稳定性与联想记忆功能有密切关系。
Hopfield网络、波耳兹曼机均属于这种类型。学习是神经网络研究的一个重要内容,它的适应性是通过学习实现的。根据环境的变化,对权值进行调整,改善系统的行为。
由Hebb提出的Hebb学习规则为神经网络的学习算法奠定了基础。Hebb规则认为学习过程最终发生在神经元之间的突触部位,突触的联系强度随着突触前后神经元的活动而变化。
在此基础上,人们提出了各种学习规则和算法,以适应不同网络模型的需要。
有效的学习算法,使得神经网络能够通过连接权值的调整,构造客观世界的内在表示,形成具有特色的信息处理方法,信息存储和处理体现在网络的连接中。
根据学习环境不同,神经网络的学习方式可分为监督学习和非监督学习。
在监督学习中,将训练样本的数据加到网络输入端,同时将相应的期望输出与网络输出相比较,得到误差信号,以此控制权值连接强度的调整,经多次训练后收敛到一个确定的权值。
当样本情况发生变化时,经学习可以修改权值以适应新的环境。使用监督学习的神经网络模型有反传网络、感知器等。非监督学习时,事先不给定标准样本,直接将网络置于环境之中,学习阶段与工作阶段成为一体。
此时,学习规律的变化服从连接权值的演变方程。非监督学习最简单的例子是Hebb学习规则。竞争学习规则是一个更复杂的非监督学习的例子,它是根据已建立的聚类进行权值调整。
自组织映射、适应谐振理论网络等都是与竞争学习有关的典型模型。
研究神经网络的非线性动力学性质,主要采用动力学系统理论、非线性规划理论和统计理论,来分析神经网络的演化过程和吸引子的性质,探索神经网络的协同行为和集体计算功能,了解神经信息处理机制。
为了探讨神经网络在整体性和模糊性方面处理信息的可能,混沌理论的概念和方法将会发挥作用。混沌是一个相当难以精确定义的数学概念。
一般而言,“混沌”是指由确定性方程描述的动力学系统中表现出的非确定性行为,或称之为确定的随机性。
“确定性”是因为它由内在的原因而不是外来的噪声或干扰所产生,而“随机性”是指其不规则的、不能预测的行为,只可能用统计的方法描述。
混沌动力学系统的主要特征是其状态对初始条件的灵敏依赖性,混沌反映其内在的随机性。
混沌理论是指描述具有混沌行为的非线性动力学系统的基本理论、概念、方法,它把动力学系统的复杂行为理解为其自身与其在同外界进行物质、能量和信息交换过程中内在的有结构的行为,而不是外来的和偶然的行为,混沌状态是一种定态。
混沌动力学系统的定态包括:静止、平稳量、周期性、准同期性和混沌解。混沌轨线是整体上稳定与局部不稳定相结合的结果,称之为奇异吸引子。
神经网络的分类人类大脑的思维分为抽象(逻辑)思维、形象(直观)思维和灵感(顿悟)思维三种基本方式。
逻辑性的思维是指根据逻辑规则进行推理的过程;它先将信息化成概念,并用符号表示,然后,根据符号运算按串行模式进行逻辑推理;这一过程可以写成串行的指令,让计算机执行。
然而,直观性的思维是将分布式存储的信息综合起来,结果是忽然间产生想法或解决问题的办法。
这种思维方式的根本之点在于以下两点:1.信息是通过神经元上的兴奋模式分布储在网络上;2.信息处理是通过神经元之间同时相互作用的动态过程来完成的。人工神经网络就是模拟人思维的第二种方式。
这是一个非线性动力学系统,其特色在于信息的分布式存储和并行协同处理。虽然单个神经元的结构极其简单,功能有限,但大量神经元构成的网络系统所能实现的行为却是极其丰富多彩的。
人工神经元网络的拓扑结构主要有哪几种?谢谢大侠~~~神经网络的拓扑结构包括网络层数、各层神经元数量以及各神经元之间相互连接的方式。人工神经网络的模型从其拓扑结构角度去看,可分为层次型和互连型。
层次型模型是将神经网络分为输入层(InputLayer)、隐层(HiddenLayer)和输出层(OutputLayer),各层顺序连接。
其中,输入层神经元负责接收来自外界的输入信息,并将其传递给隐层神经元。隐层负责神经网络内部的信息处理、信息变换。通常会根据变换的需要,将隐层设计为一层或多层。
扩展资料:人工神经网络模型主要考虑网络连接的拓扑结构、神经元的特征、学习规则等。目前,已有近40种神经网络模型,其中有反传网络、感知器、自组织映射、Hopfield网络、波耳兹曼机、适应谐振理论等。
人工神经网络采用了与传统人工智能和信息处理技术完全不同的机理,克服了传统的基于逻辑符号的人工智能在处理直觉、非结构化信息方面的缺陷,具有自适应、自组织和实时学习的特点。
参考资料来源:百度百科-人工神经网络。
前馈神经网络、BP神经网络、卷积神经网络的区别与联系一、计算方法不同1、前馈神经网络:一种最简单的神经网络,各神经元分层排列。每个神经元只与前一层的神经元相连。接收前一层的输出,并输出给下一层.各层间没有反馈。
2、BP神经网络:是一种按照误差逆向传播算法训练的多层前馈神经网络。3、卷积神经网络:包含卷积计算且具有深度结构的前馈神经网络。
二、用途不同1、前馈神经网络:主要应用包括感知器网络、BP网络和RBF网络。
2、BP神经网络:(1)函数逼近:用输入向量和相应的输出向量训练一个网络逼近一个函数;(2)模式识别:用一个待定的输出向量将它与输入向量联系起来;(3)分类:把输入向量所定义的合适方式进行分类;(4)数据压缩:减少输出向量维数以便于传输或存储。
3、卷积神经网络:可应用于图像识别、物体识别等计算机视觉、自然语言处理、物理学和遥感科学等领域。联系:BP神经网络和卷积神经网络都属于前馈神经网络,三者都属于人工神经网络。因此,三者原理和结构相同。
三、作用不同1、前馈神经网络:结构简单,应用广泛,能够以任意精度逼近任意连续函数及平方可积函数.而且可以精确实现任意有限训练样本集。2、BP神经网络:具有很强的非线性映射能力和柔性的网络结构。
网络的中间层数、各层的神经元个数可根据具体情况任意设定,并且随着结构的差异其性能也有所不同。3、卷积神经网络:具有表征学习能力,能够按其阶层结构对输入信息进行平移不变分类。
扩展资料:1、BP神经网络优劣势BP神经网络无论在网络理论还是在性能方面已比较成熟。其突出优点就是具有很强的非线性映射能力和柔性的网络结构。
网络的中间层数、各层的神经元个数可根据具体情况任意设定,并且随着结构的差异其性能也有所不同。但是BP神经网络也存在以下的一些主要缺陷。
①学习速度慢,即使是一个简单的问题,一般也需要几百次甚至上千次的学习才能收敛。②容易陷入局部极小值。③网络层数、神经元个数的选择没有相应的理论指导。④网络推广能力有限。
2、人工神经网络的特点和优越性,主要表现在以下三个方面①具有自学习功能。
例如实现图像识别时,只在先把许多不同的图像样板和对应的应识别的结果输入人工神经网络,网络就会通过自学习功能,慢慢学会识别类似的图像。自学习功能对于预测有特别重要的意义。
预期未来的人工神经网络计算机将为人类提供经济预测、效益预测,其应用前途是很远大的。②具有联想存储功能。用人工神经网络的反馈网络就可以实现这种联想。③具有高速寻找优化解的能力。
寻找一个复杂问题的优化解,往往需要很大的计算量,利用一个针对某问题而设计的反馈型人工神经网络,发挥计算机的高速运算能力,可能很快找到优化解。
参考资料:百度百科—前馈神经网络百度百科—BP神经网络百度百科—卷积神经网络百度百科—人工神经网络。
人工神经网络分类方法从20世纪80年代末期,人工神经网络方法开始应用于遥感图像的自动分类。
目前,在遥感图像的自动分类方面,应用和研究比较多的人工神经网络方法主要有以下几种:(1)BP(BackPropagation)神经网络,这是一种应用较广泛的前馈式网络,属于有监督分类算法,它将先验知识融于网络学习之中,加以最大限度地利用,适应性好,在类别数少的情况下能够得到相当高的精度,但是其网络的学习主要采用误差修正算法,识别对象种类多时,随着网络规模的扩大,需要的计算过程较长,收敛缓慢而不稳定,且识别精度难以达到要求。
(2)Hopfield神经网络。属于反馈式网络。主要采用Hebb规则进行学习,一般情况下计算的收敛速度较快。
这种网络是美国物理学家J.J.Hopfield于1982年首先提出的,它主要用于模拟生物神经网络的记忆机理。
Hopfield神经网络状态的演变过程是一个非线性动力学系统,可以用一组非线性差分方程来描述。
系统的稳定性可用所谓的“能量函数”进行分析,在满足一定条件下,某种“能量函数”的能量在网络运行过程中不断地减少,最后趋于稳定的平衡状态。
Hopfield网络的演变过程是一种计算联想记忆或求解优化问题的过程。(3)Kohonen网络。
这是一种由芬兰赫尔辛基大学神经网络专家Kohonen(1981)提出的自组织神经网络,其采用了无导师信息的学习算法,这种学习算法仅根据输入数据的属性而调整权值,进而完成向环境学习、自动分类和聚类等任务。
其最大的优点是最终的各个相邻聚类之间是有相似关系的,即使识别时把样本映射到了一个错误的节点,它也倾向于被识别成同一个因素或者一个相近的因素,这就十分接近人的识别特性。
神经网络是什么?神经网络可以指向两种,一个是生物神经网络,一个是人工神经网络。生物神经网络:一般指生物的大脑神经元,细胞,触点等组成的网络,用于产生生物的意识,帮助生物进行思考和行动。
人工神经网络(ArtificialNeuralNetworks,简写为ANNs)也简称为神经网络(NNs)或称作连接模型(ConnectionModel),它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。
这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络:是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。
在工程与学术界也常直接简称为“神经网络”或类神经网络。
人工神经网络特点有哪些 人工神经网络应用领域介绍
人工神经网络的特点有哪些?
人工神经网络突出的优点
(1)可以充分逼近任意复杂的非线性关系;
(2)所有定量或定性的信息都等势分布贮存于网络内的各神经元,故有很强的鲁棒性和容错性;
(3)采用并行分布处理方法,使得快速进行大量运算成为可能;
(4)可学习和自适应不知道或不确定的系统;
(5)能够同时处理定量、定性知识。
人工神经网络的特点和优越性,主要表现在三个方面:
第一,具有自学习功能。例如实现图像识别时,只在先把许多不同的图像样板和对应的应识别的结果输入人工神经网络,网络就会通过自学习功能,慢慢学会识别类似的图像。自学习功能对于预测有特别重要的意义。预期未来的人工神经网络计算机将为人类提供经济预测、市场预测、效益预测,其应用前途是很远大的。
第二,具有联想存储功能。用人工神经网络的反馈网络就可以实现这种联想。
第三,具有高速寻找优化解的能力。寻找一个复杂问题的优化解,往往需要很大的计算量,利用一个针对某问题而设计的反馈型人工神经网络,发挥计算机的高速运算能力,可能很快找到优化解。
人工神经网络(ArtificialNeuralNetworks,ANNs),也简称为神经网络(NNs),是模拟生物神经网络进行信息处理的一种数学模型。它以对大脑的生理研究成果为基础,其目的在于模拟大脑的某些机理与机制,实现一些特定的功能。目前,人工神经网络已应用于很多领域。本章主要对人工神经网络的基本理论做一个全面简要的介绍。
神经网络的特点
神经网络的基本属性反映了神经网络特点,主要表现在:
1.并行分布式处理神经网络具有高度的并行结构和并行实现能力,具有高速寻找优化解的能力,能够发挥计算机的高速运算能力,可能很快找到优化解。
2.非线性处理人脑的思维是非线性的,故神经网络模拟人的思维也应是非线性的。这一特性有助于处理非线性问题。
3.具有自学习功能通过对过去的历史数据的学习,训练出一个具有归纳全部数据的特定的神经网络,自学习功能对于预测有特别重要的意义。
4.神经网络的硬件实现要使人工神经网络更快、更有效地解决更大规模的问题,关键在于其超大规模集成电路(VLSI)硬件的实现,即把神经元和连接制作在一块芯片上(多为CMOS)构成ANN,神经网络的VLSI设计方法近年来发展很快,硬件实现已成为ANN的一个重要分支。
神经网络的应用领域
近些年来神经网络在众多领域得到了广泛的运用。在民用应用领域的应用,如语言识别、图像识别与理解、计算机视觉、智能机器人故障检测、实时语言翻译、企业管理、市场分析、决策优化、物资调运、自适应控制、专家系统、智能接口、神经生理学、心理学和认知科学研究等等;在军用应用领域的应用,如雷达、声纳的多目标识别与跟踪,战场管理和决策支持系统,军用机器人控制各种情况、信息的快速录取、分类与查询,导弹的智能引导,保密通信,航天器的姿态控制等。
人工神经网络模型具有并连结构、容错性、非线性映射等特征,近年来已在河道水流模拟及平面二维流场计算中得到一定的应用和发展。Y.B.Dibike,D.Olomatne&M.B.Abbott[1]将神经网络理论与水动力学模型结合,利用水动力学模型为神经网络提供网络学习样本,再用训练好的神经网络对重要河段航深、二维流场中重要位置的水流运动(包括水位、流速、流向以及流量等要素)进行预测,取得了令人鼓舞的结果。神经网络模型和水动力模型的有机结合避免了水动力学模型计算量大、计算速度慢难以满足实时预报的要求等问题,同时利用水动力学模型给神经网络提供训练样本,弥补了神经网络在重要河段和区域缺乏资料而应用受到局限的困难。杨荣富、丁晶和刘国东[2]将流域概化为若干个水库,利用水量平衡和非线性水库原理与神经网络结合,对英国Irwell流域的Salford大学控制站的径流及以上6个降雨站的观测资料进行了模拟,模型对流域的日和月径流时序变化模拟效果较好,对洪水过程模拟尚需进一步的研究。尽管如此,神经网络理论在河网水沙运动模拟方面还几乎是空白。目前用于各类模拟及预报的神经网络模型普遍存在网络内部参数物理概念不明确,隐层结构难以确定等问题。
人工神经网络与河网在结构上具有许多相似之处,两者都是由各个内部结构通过并联或串联形成一个相互制约的整体网络结构。通过调整系统内部各个“神经元”之间的相互作用达到系统输入、输出之间的最优或平衡,即可达到运用神经网络模拟复杂河网水沙运动的目的。
1一般河网概化
天然河网水系十分复杂,河流湖泊众多。根据问题研究的需要、河道湖泊之间的相互关系以及计算的需要,对河网可以作不同的概化,本文对河网的概化主要目的是满足建立具有河网水沙运动特点人工神经网络模型的要求。
(1)将河网概化为不同非线性水库相互连接而成的网络结构。
(2)水系中各个水源、沙源(如上游进入河网的来水来沙)作为模型的输入,水系需要预测站点的水流、泥沙运动过程作为模型的输出。
(3)每层水库之间相互有关连(如自然状态下某个上下层之间不存在水流或泥沙交换关系,则在网络优化中连接权赋0,这样处理既能较好地反映河网的水沙运动特性,又能满足人工神经网络模型的要求),而处于同一层的水库没有水沙交换。
(4)第一层节点只是简单地将河网输入量输入到下一节点,节点没有水量调蓄作用也没有泥沙量的变化;中间各层节点存在水量调蓄作用并且存在泥沙冲淤变化,而最后一层接受上一层各水库的来水来沙,模拟结果作为整个网络的输出值。
(5)非线性水库的出流与水库蓄水量之间为非线性关系,对于每一水库水量及整个河网总水量保持守恒。
(6)水库的输沙与水库“蓄沙”之间为非线性关系。对于每一水库泥沙总量及整个河网总沙量保持守恒。
在上述概化条件下,整个河网由河网水源或沙源的输入、河网内部相互串联和并联而成的水库、河网输出三部分构成;第一层和最后一层节点的输入输出为简单的线性关系;利用节点输水输沙平衡方程和整个河网泥沙和水量守恒关系保证各个节点和整个河网沙量、水量守恒。
2具有河网水沙特点的人工神经网络模型
传统BP神经网络模型是一种简单的非线性系统模型,通过误差反传自动调整网络内部连接权向量,达到系统输入、输出之间的响应。有许多自然现象就属于这类简单的关系。例如电力负荷变化与天气变化、工业状况等因素之间的关系;年径流量受年降雨量和年蒸发量的影响;短时段河段出流主要取决于河段进流、区间汇流等。
然而,大多数情况下的系统输出不仅依赖于当时或前期的输入量,同时也取决于系统的状态。如在河道发生较大的冲淤变形时,其输出不仅依赖于系统的输入量,同时还决定于系统所处的状态即河道冲淤情况。在这样的情况下,用传统BP神经网络来模拟系统的输入输出关系比较困难。另外,传统BP神经网络模型是一个“黑箱”模型,内部参数没有物理意义,也很难找出参数与模型输出向量之间的关系。因此,用神经网络理论来模拟河网水流泥沙运动时,不能简单地利用BP算法,还应考虑河网内各个部分以及整个河网的水量沙量守恒。在概化的河网模型中,每一节点以及整个河网都应满足水量沙量守恒方程。
泥沙连续方程:
(2)
则T+1时刻K+1层第i水库的相互物理量的变化为:
(5)
一般情况下,水库或河道水系由于边界条件或其他外界条件的改变常常引起水流形态和泥沙输移规律的改变,这种改变往往会引起河道和水库的输沙不平衡,水库或河道发生冲淤变形,从而又导致水流运动和泥沙输移规律的改变。这种水沙规律的变化以泥沙为“纽带”,在输沙平衡与不平衡之间交替变化。因此,水库出流量和水库输沙量应该还要考虑河道冲淤等因素的影响。如以水库累计冲淤量近似表示水库的地形,则水库出流表示为:
Q|T=f(Vω|T,VS|T……)(6)
同样,水库每个节点的泥沙输出为输入沙量、水库地形等因素的函数,表示为:
V|T=f1(V′|T,VS|T……)(7)
当水库冲淤变形不很明显时,水库出流可以认为是水库蓄水量的非线性函数,即T时刻的水库出流量与水库蓄水量之间的关系式为:
Q|T=f(Vω|T)(8)
同样,水库冲淤不很明显的条件下,水库排沙量也可以认为是水库来沙量的非线性函数,即T时刻的水库输沙量与水库来沙之间的关系为:
V|T=f1(V′|T)(9)
设网络第k各层节点数为NK,K为网络总层数,对第一层节点
式中:φin、φ1i分别为第一层节点输入和输出量;Wi,j为该层第i节点与下层第j节点之间的连接权;N2为第二层节点的个数。
对河网内部第k+1层节点,输入输出关系为:
(11)
式中φkj,in为K层第j节点的输入量。
由水沙连续方程和水库排水排沙方程一起组成具有河网特点的神经网络模型。尽管本文所建立的模型在结构和算法上与传统的BP神经网络结构和算法有许多相似之处,但神经网络理论与水沙守恒方程的有机结合形成的具有河网水沙运动特点的神经网络模型在许多方面有其本身的特点:
(1)考虑水沙的相互作用。水沙非耦合神经网络模型为泥沙神经网络模型和水流神经网络模型组成的整体模型。泥沙模型中各个节点在相同输入条件下其输出并不一定相同,受节点冲淤变化的影响;水流模型中的各个节点的输出同样受河床累积冲淤量的影响,而此时的河床累积冲淤量必须由泥沙模型得到。
(2)网络结构合理。由于人工神经网络与河网在结构上相似,可按照河网的复杂程度、模拟需要的精度以及现有河网的数据资料先确定模型网络,然后再结合网络计算需要对网络结构进行一定的修改。这样既可以满足神经网络计算要求,也能在一定程度上反映河网水系之间的相互关系。在本文所建立的水沙非耦合模型中,网络结构的确定必须同时满足水流和泥沙模型的要求,即两模型在结构上既要相同,又要符合两者各自的要求。
图1长江中游概化简图
(3)网络结构内部参数的物理意义明确。传统的BP神经网络结构内部节点之间的关系是一个“黑盒”,内部参数的物理意义模糊;而本文所建模型中的参数具有明确的物理含义,上下层之间的连接实质上反映了上层节点向下层节点输入的水量或沙量,即上层对下层节点的影响大小。
(4)对每个节点以及整个河网保证水量和沙量的守恒。传统的BP神经网络结构每个节点只考虑了其非线性作用,未考虑节点以及整个河网的物质是否守恒。本文模型从水流和泥沙连续方程出发,建立的模型反映了水流泥沙运动的客观规律。
(5)在本模型中,蓄水量及淤积量和输出水沙量随上下游条件不断变化,这种变化可以较好地反映河网水沙运动中边界条件的变化对网络输入与输出的影响,避免了传统BP神经网络模型难以考虑系统状态影响的缺陷。当河道或水库淤积量增加,可通过自动调整来调节河道的水沙输出量,如果不考虑这种影响,在同样进流进沙条件下,其产生同样的出流和出沙,这都会过高或过低估计出流出、出沙。
(6)若不考虑水库蓄水量和排沙量随时间的变化,则模型与传统BP网络相一致。
3模型应用实例
3.1长江中游荆江和洞庭湖河网区概况洞庭湖平原区位于长江中游荆江河段南岸,北面有松滋、太平、藕池三口分泄长江洪水进入湖区,西南有湘、资、沅、澧四水入汇,洪水经过湖区调峰后经洞庭湖出口城陵矶注入长江干流。洞庭湖经过长期演变已由原来的八百里洞庭演变成为今天的东洞庭、南洞庭、西洞庭以及与之相连的纵横交错的洪道(1所示).洞庭湖流域是一个以洞庭湖为中心,从四面八方向中央汇流的辐射状河网,不同水系有不同的地貌和气象特征,洪水组成及遭遇非常复杂,洪水历时特别长,最早出现在3月,迟者可至10月,主汛期一般为5~8月。这种错综复杂的洪水遭遇,互相顶托,使不同来源的洪水在交汇处产生壅积,水位异常抬高,大大加剧了局部地区洪灾的威胁。为了充分反映四水不同的来水来沙过程对洞庭湖区水沙运动变化的影响,在模型中必须将四水作为四个不同的独立影响因子,分别作用于河网区。另外,为了将水流网络结构和泥沙网络结构相互配套,文中将区间汇流按比例分配给四水来水。
图2长江中游网络概化模型
从荆江洞庭湖区水流泥沙运动特点和河道蓄水垸的特征将荆江洞庭湖区划分为8个相互联系的区域以及湘、资、沅、澧4个洪道区域(2所示).这12个区域分别为:区域Ⅰ:松滋河(包括东、西两支)、大湖口河、自治局河、管垸河、虎渡河水系;区域Ⅱ:藕池河的西、中两支水系;区域Ⅲ:藕池河的东支水系;区域Ⅳ~Ⅵ分别为:西洞庭湖(目平湖)水系、南洞庭湖水系、东洞庭湖水系;区域Ⅶ:枝江~藕池口河段;区域Ⅷ:藕池口~螺山河段;区域Ⅸ~Ⅻ分别为:湘、资、沅、澧4个洪道区域。
3.2模型结构由上述荆江及洞庭湖区基本情况分析可知:荆江及洞庭湖区是由区域Ⅰ~Ⅻ等12个区域通过串联或并联而成的相互联系的整体网络结构,河网区的输入输出就是通过这些区域的相互调节达到匹配。在不影响河网基本地理及水流特征的条件下,按照神经网络的结构要求对前文所分区域进行适当的调整,如将区域Ⅸ~区域Ⅻ分为上下两部分以及将区域Ⅷ分为三部分等。神经网络节点与河网区域之间的对应关系如表1.
根据神经网络结构要求,上下各个节点之间相互有联系。但从物理意义上来看,河网上下区域并不是都有必然联系。因此,本文将上下区域没有必然联系的点之间的权重强加为0,这样使模型既满足神经网络结构的要求,又符合河网水流运动规律。如区3除与区11有水量交换外,与第三层其余节点之间没有水量交换,故在模型中可以赋0.另外为简化起见,三口来流合并为一个来流,故荆江与洞庭湖之间的关系可以概化为与图2相似的网络模型。
由概化模型结构图可知,本文用来模拟洞庭湖水流运动的网络为一个6层网络结构。第1层为6个节点,分别代表宜昌+清江来流、四水来流;第2层~第5层为模型隐层,分别有6、7、3、2个节点;第6层为1个节点,代表螺山出流。
从神经网络结构要求来看,神经网络输入节点数为影响输出变量的个数,输出变量的数即为输出节点的个数。而隐单元数的选择是一个十分复杂的问题,往往根据设计得的经验和试验来确定,因而没有一个很好的解析式来表示。可以说隐单元数与问题的要求、输入输出单元的多少都有直接关系。隐单元数太多导致学习时间过长,误差不一定最佳;隐单元太少,容错性差,不能识别以前没有看到的样本。隐单元的选取决定了网络性能的好坏,因此就存在一个隐单元数的选取问题。
由此可见,本文采用6层隐层、隐层节点数同时,也符合网络结构的要求。鉴于人工神经网络与河网在结构上相似,将神经网络结构确定方法同河网本身的水系结构有机联系起来共同确定网络结构,可以大大节省工作量,给网络结构的确定提供了一种新的方法。
表1模型节点与河网区域之间的对应关系
模型节点河网区域模型节点河网区域
区1区域Ⅶ区10大湖口河、自治局河、管垸河、虎渡河(中河口以下)水系(区域Ⅰ下段)
(中河口以下)水系(区域Ⅰ下段)
区2松滋河、弥陀寺~中河口(区域Ⅰ上段)区11湘水下段水系
区3湘水上段水系区12资水下段水系
区4资水上段水系区13沅水下段水系
区5沅水上段水系区14调弦口~监利河段
区6澧水上段水系区15注滋口河段
区7藕池口~调弦口河段区16区域Ⅳ+区域Ⅴ
区8区域Ⅱ区17监利~螺山河段
区9区域Ⅲ区18区域Ⅵ
2.3城陵矶水沙过程模拟本文利用洞庭湖1981年~1983年及1984年宜昌、四水以及螺山出口日平均水流资料,区间汇流资料根据资料用区间汇流与三口四水来流总量的比值确定。1981~1983年资料作为模型率定资料,1984年作为检验资料。为了防止部分神经元达到过饱和,对以上资料进行了规格化处理。
荆江和洞庭湖之间的演变关系是通过三口分流分沙作为纽带,三口分流分沙变化对荆江和洞庭湖的水沙变化起着关键性的作用。因此,模型要比较好地反映荆江和洞庭湖的演变发展,在模型训练过程中必须充分、正确地反映三口分流分沙变化规律。图3为1984年计算流量过程与实测流量过程比较。由图可知:用本文所建立的河网水情预报模型来模拟1984年流量过程时,模型模拟的流量过程基本上与实测流量过程变化一致,平均误差小于3%,最大误差小于6%.因此,本文所建立的河网预报模型基本上能够反映河网水流变化规律。
图3计算与实测量过程比较图4计算与实测输沙量比较
本文用洞庭湖1954年~1988年三口、四水以及城陵矶出口年平均输沙量资料,来率定网络各个连接权重。由于洞庭湖区多年情况淤积率保持在74%左右,各个湖区淤积率也基本未发生大的变化,可以认为洞庭湖区的淤积对湖区泥沙淤积速率影响不大。图4为1954~1988年35年城陵矶计算输沙量过程与实测过程比较结果。
由图4可见,计算结果与实测结果误差在要求的范围之内,能够较好地反映城陵矶输沙过程,表明本文建立的具有河网水沙运动特点的神经网络模型能够用于洞庭湖区泥沙输移规律的分析和模拟。
4结论
河网水沙运动复杂,传统水动力学数值方法在模拟河网水沙运动时很难达到实时预报的要求,对河网地形资料较缺乏的情况应用也比较困难。由于河网结构与神经网络结构相似,其输入输出关系也基本一致,因此用神经网络能够较好地模拟河网水沙运动状态。鉴于传统BP神经网络模型存在网络结构确定困难、内部节点参数物理意义不明确等缺点,本文从水沙运动的连续方程和槽蓄方程出发,建立了能反映水沙基本规律,内部节点物理意义清楚的河网神经网络模型。利用所建模型对长江中游水沙运动宏观规律进行模拟,模拟结果表明本文模型能够较好地反映客观水沙输移规律。