时间:2023-03-08 14:53:33
引言:寻求写作上的突破?我们特意为您精选了4篇神经网络算法范文,希望这些范文能够成为您写作时的参考,帮助您的文章更加丰富和深入。
计算机网络在人们日常生活越来越重要,被广泛应用到各个行业。随着社会不断发展,人们需求不断加高,使计算机得到良好改善,目前,计算机网络运用集线式服务器来实现网络互连,促进网络发展。但是也有很大弊端,过多的联想信息虽然满足人们需求,但是对技术的要求也更加苛刻,现有的技术满足不了计算机网络运行,使人们日常操作不方便。为了解决这一问题,研究人员需要全面优化计算机网络,提高运行能力和性能,运用神经网络算法,使计算机更加适合现代社会发展,储存更多信息。
1神经网络算法概论分析
1.1神经网络算法整体概论神经网络算法是按照人体大脑的思维方式进行模拟,根据逻辑思维进行推理,将信息概念化形成人们认知的符号,呈现在显示屏前。根据逻辑符号按照一定模式进行指令构造,使计算机执行。目前,神经网络被广泛使用,使直观性的思维方式分布式存储信息,建立理论模型。优化网络的神经网络主要是Hop?eld神经网络,是1982年由美国物理学家提出的,它能够模拟神经网络的记忆机理,是全连接的神经网络。Hop?eld神经网络中的每个神经元都能够信号输出,还能够将信号通过其他神经元为自己反馈,那么其也称之为反馈性神经网络。
1.2优化神经网络基本基础Hop?eld神经网络是通过能量函数分析系统,结合储存系统和二元系统的神经网络,Hop?eld神经网络能收敛到稳定的平衡状态,并以其认为样本信息,具备联想记忆能力,使某种残缺信息进行回想还原,回忆成完整信息。但是Hop?eld神经网络记忆储存量有限,而且大多数信息是不稳定的,合理优化计算机联想问题,使Hop?eld神经网络能够建设模型。
1.3神经网络算法优化步骤简述人工神经网络是模拟思维,大多是根据逻辑思维进行简化,创造指令使计算机执行。神经网络算法是按照人体思维进行建设,通过反应问题的方法来表述神经思维的解;利用有效条件和能量参数来构造网络系统,使神经网络算法更加可靠;大多数动态信息需要神经网络来根据动态方程计算,得出数据参数来进行储存。
2神经网络算法的特点与应用
2.1神经网络主要特点神经网络是根据不同组件来模拟生物体思维的功能,而神经网络算法是其中一种程序,将信息概念化,按照一定人们认知的符号来编程指令,使计算机执行,应用于不同研究和工程领域。神经网络在结构上是由处理单元组成,模拟人体大脑神经单元,虽然每个单元处理问题比较简单,但是单元进行组合可以对复杂问题进行预知和处理的能力,还可以进行计算,解决问题能力突出,能够运用在计算机上,可以提高计算机运算准确度,从而保障计算机运行能力。而且一般神经网络有较强容错性,不同单元的微小损伤并不阻碍整体网络运行,如果有部分单元受到损伤,只会制约运算速度,并不妨碍准确度,神经网络在整体性能上能够正常工作。同时,神经网络主干部分受到损伤,部分单元会进行独立计算,依然能够正常工作。
2.2神经网络信息记忆能力神经网络信息存储能力非常强,整体单元组合进行分布式存储。目前,神经网络算法是单元互相连接,形成非线性动态系统,每个单元存储信息较少,大量单元互相结合存储信息大量增加。神经网络具备学习能力,通过学习可以得到神经网络连接结构,在进行日常图像识别时,神经网络会根据输入的识别功能进行自主学习,过后在输入相同图像,神经网络会自动识别。自主学习能力给神经网络带来重要意义,能够使神经网络不断成长,对人们未来日常工作能够很好预测,满足人们的需求。
2.3神经网络的突出优点近年来,人工神经网络得到越来越多人重视,使神经网络得到足够资源进行良好创新。人工神经网络是由大量基本元件构成,对人脑功能的部分特性进行模仿和简化,人工神经网络具备复杂线性关系,与一般计算机相比,在构成原理和功能特点更加先进,人工神经网络并不是按照程序来进行层次运算,而是能够适应环境,根据人们提供的数据进行模拟和分析,完成某种运算。人工神经系统具备优良容错性,由于大量信息存储在神经单元中,进行分布式存储,当信息受到损害时,人工神经系统也可以正常运行。人工神经网络必须要有学习准则制约来能够自主学习,然后进行工作。目前,人工神经网络已经逐步具备自适应和自组织能力,在学习或训练过程中改变突触权重值,以适应周围环境的要求。通过一定学习方式和某些规则,人工神经网络可以自动发现环境特征和规律性,更贴近人脑某些特征。采用并行分布处理方法,使得快速进行大量运算成为可能。神经网络的一个很大的优点是很容易在并行计算机上实现,可以把神经的节点分配到不同的CPU上并行计算。钱艺等提出了一种神经网络并行处理器的体系结构,能以较高的并行度实现典型的前馈网络如BP网络和典型的反馈网络(如Hop?eld网络)的算法。该算法以SIMD(SingleInstructionMultipleData)为主要计算结构,结合这两种网络算法的特点设计了一维脉动阵列和全连通的互连网络,能够方便灵活地实现处理单元之间的数据共享。结合粒子群优化算法和个体网络的并行学习机制,提出了一种基于粒子群优化的并行学习神经网络集成构造方法。
3结束语
全球化的发展,信息交流不断加快,促使各个行业相互融合。神经网络算法具备简单、稳定等不同优势,神经网络研究内容相当广泛,神经网络算法能够与其它算法相互结合,在一定程度提高计算机网络模型运算能力。但是计算机网络模型中神经网络算法学习能力比较低下,梯度下降法不准确,所以需要有关人员进行深度研究,探索神经网络算法,使其更加完善,从而保证计算机整体性能的提高。
参考文献:
1 绪论
随着电子信息技术的快速发展,芯片的设计与生产进入了纳米时代,计算机的计算能力与计算速度得到了空前的提高,但是人们的需求是无限的,要求计算机能更加任性化的服务于我们的生活,这也就要求计算机本身能像人一样识别与感知周围的环境,并对复杂的环境做出正确的判断。而图片信息是我们周围环境最直观的,最容易获取的信息,要求计算机能对为的环境做出识别与判断也就要求计算机能够智能的识别图像信息。深度学习是机器学习中的一个新的研究领域。通过深度学习的方法构建深度网络来抽取目标特征进而识别周围的环境。卷积神经网络对图像的处理具有平移,旋转,扭曲不变的优良特性。在处理图像是更加快捷和便利。卷积神经网络使得计算机在感知识别周围环境的能力有了巨大的提升,使得计算机更加智能。卷积神经网络拥有强大的特征提取能力,使得其在图像分类识别,目标跟踪等领域有着强大的运用。
1.1 国内外研究现状
1986年,Rumelhart和Mc Celland提出BP算法。BP算法反向传导神经网络输出误差进行训练神经网络。通过BP算法,神经网络能够从大量训练数据中的学习到相关统计信息,学习到的数据统计信息能够反映关于输入-输出数据模型的函数映射关系。
自2006年以来,Geoffery Hinton教授提出深度信念网络。从此深度学习在学术界持续升温。深度学习不仅改变着传统的机器学习方法,也影响着我们对人类感知的理解,迄今已在语音识别和图像理解等应用领域引起了突破性的变革。各种相关的算法和模型都取得了重要的突破,使得深度学习在图像分类,语音识别,自然语言处理等领域有广泛的运用。
2013年百度成立百度深度学习研究院以来我国的人工智能领域取得了长足的进步。在人工智能专家吴恩达的带领下,百度陆续推出一系列人工智能产品,无人驾驶技术,DuerOS语音交互计算平台,人脸识别技术,美乐医等优秀产品。此外Imagenet图像识别大赛中也诞生了一系列经典的神经网络结构,VGG,Fast-R-CNN,SPP-net等等,可以说人工智能技术在近几年得到了空前的发展。
2 深度学习概述
深度学习是机器学习的一个新方向,通过学习样本数据内在规律和深层特征深度,深度学习神经网络能够像人一样有分析和学的能力,尤其在文字处理,图像识别,语音等领域更加突出。能够自主学习一些新的东西。目前深度学习使用的典型技术是通过特征表达和分类器来进行目标识别等任务的。并在语音识别、图像处理、机器翻译等领域取得很多成果。
深度学习不同于以往的浅层学习,浅层学习模型值包含一个隐藏层,或者不存在隐藏层,深度学习则是由很多隐藏层组成的,上一层的输出作为下一层的输入,实验对输入信息进行分级表达。目前深度学习框架主要包含三种深度学习框架,如图1、2、3所示。
3 卷积神经网络
卷积神经网络的结构层次比传统的神经网络复杂,卷积神经网络包含大量的隐藏层,相邻的卷积核或者下采样核采用局部感受野全链接,神经元权值共享的规则,因此卷积神经网络训练参数的数量远比传统神经网络少,卷积神经网络在训练和前向测试的复杂度大幅度降低,同时也减少了神经网络训练参数过拟合的几率。卷积神经网络主要有两部分,分别是卷积核和下采样核。卷积核主要对上一层的图像进行卷积运算,提取图像特征,下采样核则是对上层的数据进行将为处理,减少神经网络的复杂度。
卷积神经网络中每一个神经元的输入与前一层的局部感受野相连,提取局部感受野的特征,比如图像的轮廓,颜色等特征,而这些特征不仅包括传统人类能理解的特征,也包括神经网络自身能够识别的特征,卷积核全职共享,因此这些特征提取与图像的位置无关。
图4是经典的LeNet5卷积神经网络架构,LeNet5架构中卷积核和下采样核交替出现,下采样核及时的将卷积核生成的特征向量进行降维,减少神经网络的运算量。LeNet5算法在1962年幼Hubel等人提出,在识别手写数字mnist中有极高的准确率。
4 R-CNN、Fast-R-CNN对比分析
卷积神经网络在对图像进行识别具有平移,旋转,扭曲不变的优良特性,并且能够实现高准确率识别图像,但是在现实生活运用中往往需要神经网络标记出目标的相对位置,这是传统卷积神经网络不具备的功能。因此在前人传统卷积神经网路基础上对卷积神经网络进行改进,产生了具有对图像中目标进行识别和定位的卷积神经网络R-CNN,Fast-R-CNN等改良算法。
4.1 R-CNN
R-CNN为Region Convoluntional Neural Network的缩写即对图像进行局部区域的卷积处理,其核心思想主要是利用候选区图像对物体探测中位置信息进行精确处理和利用监督式预训练和区域特殊化的微调方法,代替了传统的非监督式预训练和监督式微调。
在CNN中,全连接层输入是固定大小的,因此R-CNN用计算机视觉算法将每一张图片分割成1000-2000张的候选区图片后,要将这些候选区图片进行变换,生成固定大小的候选图片,在训练提取特征时一般采用经过预训练的模型参数进行finetuning,榱嗽黾友盗费本,模型在也将生成的候选框以及标定的标签作为训练样本进行训练。R-CNN采用SVMs分类器对特征向量进行分类,在训练SVMs时将候选框经过卷积神经网络提取的特征和SVM标定结果输入到SVMs分类器训练分类器模型。而在测试时将图像全部候选框经过卷积神经网络提取的特征输入到SVMs分类器中,得到每一类的评分结果。但是R-CNN在处理一张图片是要处理需要对一张图片1000-2000个候选区图像进行前向运算,保存所有后选取图片的特征值,要求计算硬件有大量的存储空间,同时处理每一张图片的时间也会增加。由于训练集庞大,本文采用hard negative mining method方法提高存储的利用率。
R-CNN的体现出了极大的优势,其中MAP也可以大幅度提高,但是正如本文上述,R-CNN计算的时间成本很大,达不到实时的计算效果,R-CNN在对候选区进行处理时会使得图像失真,部分信息丢失。
4.2 Fast-R-CNN
Fast-R-CNN则是再次改进的一种基于卷积神经网络目标跟踪定位算法。相比于R-CNN,Fast-R-CNN从单输入变为双输入,在全连接层后有了两个输出,引入了Rol层。
Fast-R-CNN在运行的时候同样会生成大量的候选区,同时将原始的图片用卷积神经网络进行特征提取,将原始图片提取的特征与生成的候选区坐标送入Rol层为每一个候选区生成一个固定大小的特征向量。最后将Rol生成的特征向量全连接层产生最终的LOSS。Fast-R-CNN中的LOSS采用多LOSS模式,SoftMax LOSS用于计算K+1分类的损失,K为第K个目标,1为背景;Regression LOSS计算候选区的四个角的坐标。
Fast-R-CNN在MAP上有了大幅度的提升,速度也得到了提升,但是在计算候选区是仍存在瓶颈,这也是限制Fast-R-CNN速度的因素。
5 实验测试
对于本文提出的卷积神经网络识别图像定位图像目标算法R-CNN,Fast-R-CNN,在本章给出实验结果。实验平台为基于Linux系统的debian8下运行caffe进行训练,采用显卡K620进行实验。
训练模型初始化参数在是服从高斯随机分布,R-CNN采用的网络结构如图7所示,Fast-R-CNN的网络结构如图8所示。
本次实现的训练样本为录制实验室视频数据,将视频数据转换成帧图片,对每张图片数据进行裁剪,裁剪后图像大小在256*256,共有500张,再将裁剪后的图片进行旋转,平移,扭曲,镜像,加噪声等处理,最后生成144万张样本图片,其中136.8万张图片作为训练样本,7.2万张作为测试样本。
6 总结
在目标识别定位领域,卷积神经网络具有强大的图像处理能力,对图像的识别定位具有很高度平移,旋转,扭曲不变形的优良性能。卷积神经网络架构R-CNN和Fast-R-CNN都有强大的图像处理能力。Fast-R-CNN在识别准确率上比R-CNN高。R-CNN算法复杂,对一张图片需要进行1000-2000次的卷积运算,特征重复提取。因此在训练和前向测试时,R-CNN用的时间长,不能很好的适用于处理实时图片数据,尤其视频数据。R-CNN在对每个候选区进行特征提取之后需要将提取的特征向量存入内存,降低训练测试时间的同时也需要耗费大量内存。因此从各方面分析可知,Fast-R-CNN性能优于R-CNN。
参考文献
[1]谢宝剑.基于卷积神经网络图像分类方法研究[D].合肥工业大学,2015.
[2]郑胤,陈权崎,章毓晋.深度学习及其在目标和行为识别中的新进展[J].中国图象图形学报,2014(02):175-184.
[3]陈先昌.基于卷积神经网络的深度学习算法与运用研究[D].杭州:浙江工商大学,2006(04):603-617.
[4]李彦冬,郝宗波,雷航等.卷积神经网络研究综述[J].计算机应用,2016.
[5]Gibson.J J.The perception of the Visual World[J].Cambridge,England,1950.
[6]HORN B,SCHUNCK P.Determining optical flow[J].Artificial Intelligence, 1981,17:185-203.
[7]R.Girshick,J.Donahue,T. Darrell,and J.Malik,“Rich feature hierarchies for accurate object detection and semantic segmentation,”in CVPR,2014
[8]Ross Girshick,Wicrosoft Research. Fast R-CNN,.
前馈神经网络BP学习算法在理论上具有逼近任意非线性连续映射的能力,在非线性系统的建模及控制领域里有着广泛的应用。然而BP 算法存在一些不足, 主要是收敛速度很慢; 往往收敛于局部极小点; 数值稳定性差, 学习率、动量项系数和初始权值等参数难以调整,非线性神经网络学习算法Levenberg-Marquardt可以有效地克服BP算法所存在的这些缺陷。
一、前馈神经网络
前馈神经网络由输入层、隐层和输出层组成。令u=[u1,u2,Λ,um]T,y=[y1,y2,Λ,yn]T络的输入、输出向量, 令X=[x1,x2,Λ,xN]T为网络的权及阈值的全体所组成的向量。给定P组输入输出训练样本定义网络的误差指标函数为:
(1)
(2)
然后就可以按照各种学习算法开始对X进行训练, 得到最优Xopt, 使得
二、Levenberg-Marquardt神经网络算法
1.给定初始点X(0), 精度,σ,k=0。
2.对i=1,2,…,M求fi(X(k)),得向量
对i=1,2,…,M求得Jacobi矩阵
3.解线性方程组求出搜索梯度方向h(k)。
4.直线搜索,其中λk满足
5.若则得到解Xopt,转向7(停止计算); 否则转向6。
6.F(X(k+1))<F(X(k)),则令,k=k+1, 转向2; 否则=*ξ,转向3。
7.停止计算
在实际操作中,是一个试探性的参数,对于给定的,如果求得的h(k)能使误差函数Ep(X)降低,则被因子ξ除;若误差函数Ep(X)增加,则乘以因子ξ。在仿真中,选取初始值=0.01,ξ=10。在采用Levenberg-Marquardt算法时,为使收敛速度更快,需要增加学习率因子α,取α为0.4。Levenberg-Marquardt算法的计算复杂度为为网络权值数目,如果网络中权值的数目很大。则计算量和存储量都非常大。因此,当每次迭代效率显著提高时,其整体性能可以大为改善,特别是在精度要求高的时候。
三、结论
前馈神经网络中,BP 算法存在收敛速度很慢,收敛于局部极小点等缺陷,而Gauss-Newton的改进算法Levenberg-Marquardt算法能有效克服BP 算法的缺陷。
参考文献:
计算机网络在人们日常生活越来越重要,被广泛应用到各个行业。随着社会不断发展,人们需求不断加高,使计算机得到良好改善,目前,计算机网络运用集线式服务器来实现网络互连,促进网络发展。但是也有很大弊端,过多的联想信息虽然满足人们需求,但是对技术的要求也更加苛刻,现有的技术满足不了计算机网络运行,使人们日常操作不方便。为了解决这一问题,研究人员需要全面优化计算机网络,提高运行能力和性能,运用神经网络算法,使计算机更加适合现代社会发展,储存更多信息。
1 神经网络算法概论分析
1.1 神经网络算法整体概论
神经网络算法是按照人体大脑的思维方式进行模拟,根据逻辑思维进行推理,将信息概念化形成人们认知的符号,呈现在显示屏前。根据逻辑符号按照一定模式进行指令构造,使计算机执行。目前,神经网络被广泛使用,使直观性的思维方式分布式存储信息,建立理论模型。
优化网络的神经网络主要是Hopfield神经网络,是1982年由美国物理学家提出的,它能够模拟神经网络的记忆机理,是全连接的神经网络。Hopfield神经网络中的每个神经元都能够信号输出,还能够将信号通过其他神经元为自己反馈,那么其也称之为反馈性神经网络。
1.2 优化神经网络基本基础
Hopfield神经网络是通过能量函数分析系统,结合储存系统和二元系统的神经网络,Hopfield神经网络能收敛到稳定的平衡状态,并以其认为样本信息,具备联想记忆能力,使某种残缺信息进行回想还原,回忆成完整信息。但是Hopfield神经网络记忆储存量有限,而且大多数信息是不稳定的,合理优化计算机联想问题,使Hopfield神经网络能够建设模型。
1.3 神经网络算法优化步骤简述
人工神经网络是模拟思维,大多是根据逻辑思维进行简化,创造指令使计算机执行。神经网络算法是按照人体思维进行建设,通过反应问题的方法来表述神经思维的解;利用有效条件和能量参数来构造网络系统,使神经网络算法更加可靠;大多数动态信息需要神经网络来根据动态方程计算,得出数据参数来进行储存。
2 神经网络算法的特点与应用
2.1 神经网络主要特点
神经网络是根据不同组件来模拟生物体思维的功能,而神经网络算法是其中一种程序,⑿畔⒏拍罨,按照一定人们认知的符号来编程指令,使计算机执行,应用于不同研究和工程领域。
神经网络在结构上是由处理单元组成,模拟人体大脑神经单元,虽然每个单元处理问题比较简单,但是单元进行组合可以对复杂问题进行预知和处理的能力,还可以进行计算,解决问题能力突出,能够运用在计算机上,可以提高计算机运算准确度,从而保障计算机运行能力。而且一般神经网络有较强容错性,不同单元的微小损伤并不阻碍整体网络运行,如果有部分单元受到损伤,只会制约运算速度,并不妨碍准确度,神经网络在整体性能上能够正常工作。同时,神经网络主干部分受到损伤,部分单元会进行独立计算,依然能够正常工作。
2.2 神经网络信息记忆能力
神经网络信息存储能力非常强,整体单元组合进行分布式存储。目前,神经网络算法是单元互相连接,形成非线性动态系统,每个单元存储信息较少,大量单元互相结合存储信息大量增加。神经网络具备学习能力,通过学习可以得到神经网络连接结构,在进行日常图像识别时,神经网络会根据输入的识别功能进行自主学习,过后在输入相同图像,神经网络会自动识别。自主学习能力给神经网络带来重要意义,能够使神经网络不断成长,对人们未来日常工作能够很好预测,满足人们的需求。
2.3 神经网络的突出优点
近年来,人工神经网络得到越来越多人重视,使神经网络得到足够资源进行良好创新。人工神经网络是由大量基本元件构成,对人脑功能的部分特性进行模仿和简化,人工神经网络具备复杂线性关系,与一般计算机相比,在构成原理和功能特点更加先进,人工神经网络并不是按照程序来进行层次运算,而是能够适应环境,根据人们提供的数据进行模拟和分析,完成某种运算。
人工神经系统具备优良容错性,由于大量信息存储在神经单元中,进行分布式存储,当信息受到损害时,人工神经系统也可以正常运行。人工神经网络必须要有学习准则制约来能够自主学习,然后进行工作。目前,人工神经网络已经逐步具备自适应和自组织能力,在学习或训练过程中改变突触权重值,以适应周围环境的要求。通过一定学习方式和某些规则,人工神经网络可以自动发现环境特征和规律性,更贴近人脑某些特征。
采用并行分布处理方法,使得快速进行大量运算成为可能。神经网络的一个很大的优点是很容易在并行计算机上实现,可以把神经的节点分配到不同的CPU上并行计算。钱艺等提出了一种神经网络并行处理器的体系结构,能以较高的并行度实现典型的前馈网络如BP网络和典型的反馈网络(如Hopfield网络)的算法。该算法以SIMD(Single Instruction Multiple Data)为主要计算结构,结合这两种网络算法的特点设计了一维脉动阵列和全连通的互连网络,能够方便灵活地实现处理单元之间的数据共享。结合粒子群优化算法和个体网络的并行学习机制,提出了一种基于粒子群优化的并行学习神经网络集成构造方法。
3 结束语
全球化的发展,信息交流不断加快,促使各个行业相互融合。神经网络算法具备简单、稳定等不同优势,神经网络研究内容相当广泛,神经网络算法能够与其它算法相互结合,在一定程度提高计算机网络模型运算能力。但是计算机网络模型中神经网络算法学习能力比较低下,梯度下降法不准确,所以需要有关人员进行深度研究,探索神经网络算法,使其更加完善,从而保证计算机整体性能的提高。
参考文献
[1]陈竺.计算机网络连接增强优化中的神经网络算法[J].电子技术与软件工程,2014(19).