卷积神经网络的概念范文
时间:2024-03-28 16:38:29
导语:如何才能写好一篇卷积神经网络的概念,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。
篇1
关键词: 模式识别; 神经网络; 卷积; 文字识别
中图分类号: TN711?34; TP391.4 文献标识码: A 文章编号: 1004?373X(2014)20?0019?03
Large pattern online handwriting character recognition based on multi?convolution neural network
GE Ming?tao1, WANG Xiao?li1, PAN Li?wu2
(1. SIAS International School, Zhengzhou University, Zhengzhou 451150, China;
2. Henan University of Animal Husbandry and Economy, Zhengzhou 450011, China)
Abstract: Online handwriting character recognition is an important field in the research of pattern recognition. The traditional recognition method is based on the common convolutional neural networks (CNNs) technology. It has an efficient recognition rate for the small pattern character set online handwriting characters, but has low recognition rate for the large pattern character set recognition. A recognition method based on multi?convolutional neural networks (MCNNs) is presented in this paper to overcome the situation that the previous methods have the low recognition rate for large pattern character set and improve the recognition rate for the large pattern handwriting character set recognition. The stochastic diagonal Levenbert?Marquardt method is used in the system for training optimization. The experimental results show that the proposed method has the recognition rate of 89% and has a good prospect for online handwriting character recognition for large scale pattern.
Keywords: pattern recognition; neural network; convolution; character recognition
0 引 言
随着全球信息化的飞速发展和对自动化程度要求的不断提高 ,手写文字识别技术被广泛地应用到许多方面。特别是近几年拥有手写功能的手机、平板电脑等智能电子产品的普及,联机手写文字识别研究已经成为一个备受关注的主题。联机手写字符识别要求实时性较高,识别过程中要求特征空间的维数比较高,在进行特征样本训练时要求训练的数目很大,要匹配的特征值或特征对象比较多 [1?2]。
卷积神经网络(Convolutional Neural Networks,CNNs)的优点在于图像的识别过程中对视觉模式的获得是直接从原始图像中获得的,所以在设计系统时图像的预处理工作很少,与一般神经网络相比是一种高效的识别方法。卷积神经网络在模式识别的一些领域具有很好的鲁棒性,如在识别有变化的模式和对几何变形的识别方面。利用卷积神经网络的手写识别方法具有如下一些优点:对于要检测的图像可以与事先制定网络拓扑结构之间有较高的匹配率;特征提取和模式分类同时进行;训练参数往往是系统计算量的重要参数,而卷积神经网络中利用权值共享技术,这样就可以大大降低该参数,在设计系统结构时使得结构变得更简单,从而使得整个系统具有更好的适应性[3?5]。
目前,人机交互系统的手写字符识别、汽车车牌号识别和信息安全中常用的人脸识别等领域都有卷积神经网络的成功应用。文献[6]用一个4层的卷积神经网络LeNet?5对Mnist库进行识别实验,获得了98.4%的识别率,用2层的BP网络的识别率[4,6]是87%。许多学者对卷积神经网络在联机手写文字识别方面做了多方位的研究。 但是,这些成功的联机手写文字识别主要是针对小模式字符集,利用以往的这些方法对大规模模式分类的联机手写文字的识别依然有识别率不高的问题。本文介绍了卷积神经网络的基本概念和一种典型的卷积神经网络结构,给出了基于多重卷积神经网络的字符识别和词语识别模型。通过使用大字符集的UNIPEN数据库进行训练和测试,本文提出的方法在大模式联机手写识别上,取得了较高的识别速度和满意的识别率。
1 卷积神经网络
文献[6?7]中详细地描述了卷积神经网络如何保证图像对位移、缩放、扭曲鲁棒性能。典型的手写字符卷积神经网络LeNET 5的结构图如图1所示[6?7]。
图1 典型的卷积神经网络结构
在图1中,输入层接收要识别32×32的手写字符图像,经过简单的大小归一化和图像灰度处理,之后的结果作为一个采样层的图像;然后用一个可学习核进行卷积操作,卷积结果经过激活函数的输出形成这一层的神经元,每个神经元与输入图像的一个5×5的邻域相连接,从而得到由6幅特征图组成的第一个隐层(C1层)。每个特征图有25个权值(如方向线段,端点、角点等),考虑到边界效果,得到的特征图的大小是28×28,小于输入图层[3?9]。卷积层的数学计算过程可表示为:
[xlj=fi∈Mjxl-1j*kernellij+blj] (1)
式中:[l] 代表层数;kernel是卷积核;[Mj]代表输入特征图的一个选择。每个输出图有一个偏置[b]。
每个卷积层的结果作为下一个次采样层的输入,次采样层的作用是对输入信息进行抽样操作。如果输入的特征图为n个,则经过次采样层后特征图的个数仍然为n,但是输出的特征图要变小(例如,各维变为原来的50%)。因此隐层S2是由6个大小为14×14的特征图组成的次采样层。次采样层计算公式可以用式(2)表示:
[xlj=fβl-1jdown(xl-1j)+blj] (2)
式中down(・) 表示次采样函数。次采样函数一般是对该层输入图像的一个n×n大小的区域求和,因此,输出图像的大小是输入图像大小的[1n]。每一个输出的特征图有自己的β和b。
类似的,C3层有16个10×10的特征图组成的卷积层,特征图的每个神经元与S2网络层的若干个特征图的5×5的邻域连接。网络层S4是由16个大小为5×5的特征图组成的次采样层。特征图的每个神经元与C3层的一个2×2大小的邻域相连接。网络层C5是由120个特征图组成的卷积层。每个神经元与S4网络层的所有特征图的5×5大小的邻域相连接。网络层F6,包括84个神经元,与网络层C5进行全连接。最后,输出层有10个神经元,是由径向基函数单元(RBF)组成,输出层的每个神经元对应一个字符类别。RBF单元的输出yi的计算方法如式(3)所示:
[yi=j(xj-wij)2] (3)
很多研究人员通过对字符集作弹性训练,经测试发现在MNIST字符集上的识别率可以高达99%以上[6?7] 。卷积神经网络的优势主要是对小模式集上,如对数字或26个英文字母组成的集合都有着较高的识别率。然而,对大模式集的识别仍然是一个挑战,因为设计一个优化的并足够大的单一网络是比较困难的,且训练时间也较长。因此,本文的目的旨在通过组合多个对某一字符集有高识别率的卷积神经网络,从而构成多重卷积神经网络,进而提高卷积神经网络对大模式集手写字符的识别率。
2 多重卷积神经网络
2.1 多重卷积神经网络字符识别
根据传统卷积神经网络的运算过程以及其在处理大模式集手写字符时存在的不足,本文提出一种多重卷积神经网络来改进传统的卷积神经网络模型,用多个拥有高识别率的小卷积神经网络组成一个多重卷积神经网络。每一重小卷积神经网络对某一具体字符集有较高的识别率,另外,单重卷积神经网络除了有一个正式的输出集之外,还产生一个未知的输出(即难以识别的字符),即如果一个输入字符没有被正确识别,它将被输出为一个未知字符,然后输入模式转到下一重卷积神经网络进行识别。最后,通过一个拼写检查模块进行判断,选择最好的结果输出。系统的流程如图2所示。
其中CNN 1是识别手写数字的卷积神经网络,CNN 2是识别手写小写英文字母的卷积神经网络,该模型具有极强的扩展性,可以添加多任意模式的卷积神经网络(如中文,日文等)。
图2 多重卷积神经网络字符识别示意图
2.2 随机对角Levenberg?Marquardt训练方法
传统的结构比较简单、单一的卷积神经网络多采用基本的Back Propagation(BP)规则训练网络,往往需要几百次迭代,网络的收敛速度较慢。本文采用LeCun博士提出的随机对角Levenberg?Marquardt 算法对网络作训练,该算法需要的迭代次数明显比基本的BP 算法少[4,9]。随机对角Levenberg?Marquardt算法的公式为:
[ηki=ε?2E?w2ij+μ] (4)
式中[ε]是全局的学习率,一般取初始值0.01,太大会使网络无法收敛,太小则会降低收敛速度,且使网络更容易陷入局部极小值,训练过程中可以用启发式规则改变[ε]的值,本文取最下值为5e-005; [?2E?w2ij]是一个估计值,根据训练集的大小可以调整样本数量,文中随机选取200个样本估算它的值;[μ]用来避免[?2E?w2ij] 太小时[ηki]的变化过大 。
2.3 多重卷积神经网络词句识别
本文提出的多重卷积神经网络对手写词语的识别方法可以简单地描述为:首先对输入的手写图像进行预处理和分割,然后通过多重卷积神经网络模块分别进行识别,最后采用单词识别模块对识别结果进行判断,选择最好的结果输出。其过程如图3所示。
图3 多重卷积神经网络联机手写词句识别过程
本文提出的多重卷积神经网络联机手写文字识别方法克服了传统卷积神经网络文字识别的对字符集的限制,每一重卷积神经网络是一个针对小模式的卷积神经网络,易于训练和优化,更重要的是此方案的灵活性非常好易于调节参数,可扩展性强。每一重卷积神经网络都具有可重用能力,可以根据需要加载一个或多个网络,可以根据新的模式添加新的网络而不需改变或重建原来的网络。
3 训练和实验
为了评估多重卷积神经网络对基于大模式字符集的联机手写文字识别的性能,本系统采用MNIST和UNIPEN两种不同的手写字符训练集进行测试。UNIPEN数据库是在1992年举行的IEEE IAPR会议上提出并建立的,其目的是创建一个大型的手写体数据库用于为在线手写识别提供研究和开发的基础,得到了多个知名公司或研究所的支持并完成了UNIPEN的规范设计。在进行数据比对实验中,本文采用许多研究使用的MNIST手写数字数据库,该数据库是NEC 研究中心设计的,是NIST(The National Institute of Standards and Technology)数据库的一个子集,该训练集中有大量训练样本和测试用例。本文默认用以下定义:
[识别率=正确识别数样本总数×100%]
[失误率误识率=错误识别数样本总数×100%]
实验测试是在通用的台式电脑上进行的。整个识别原型系统采用C#编写,运行在.NetFrame 4.5平台上。经测试对MNIST训练集识别正确率可达[9]99%,对UNIPEN数字识别正确率可达97%,对UNIPEN数字和大写字母识别正确率可达89%(1a,1b) ,对UNIPEN小写字母识别正确率可达89%(1c) 。图4是对UNIPEN小写字母3次训练的均方误差比较。
图4 训练的误差数据
从图4中可以看出,在开始的几个训练周期内,均方误差(MSE)下降得很快,然后在第13个周期后神经网络达到一个稳定的值,约为0.148 5。也就是说,网络在第13个周期后,改善程度就很小。所以修改训练错误率的值为0.000 45后重新进行18代的第二次训练,均方误差有所降低。经过第三次的训练后趋于稳定,对UNIPEN小写字母识别正确率可达89%。经测试,通过使用随机对角Levenberg?Marquardt方法,收敛速度比基本BP算法快了许多,经过68代训练后识别正确率可达89%。
4 结 语
本文提出了基于多重卷积神经网络的联机手写字符的识别方法,通过使用多个识别率高的卷积神经网络和随机对角 Levenberg? Marquardt方法,可以适用于大模式联机手写识别。经过实验数据比较,该方法在大模式联机手写识别过程中具有很高的识别率,与此同时识别速度也很快,有很好的实时性,总体效果很好。在当今触摸屏应用遍及生产生活的各个方面的趋势下,该方法有着广阔的应用前景。同时此方法为今后多手写汉字识别的研究提供了很好的借鉴。
注:本文通讯作者为潘立武。
参考文献
[1] 吴鸣锐,张钹.一种用于大规模模式识别问题的神经网络算法[J].软件学报,2001,12(6):851?855.
[2] 张辉.大规模联机手写汉字识别数据库整理、统计与实验分析[D].广州:华南理工大学,2012.
[3] 徐姗姗,刘应安,徐,等.基于卷积神经网络的木材缺陷识别[J].山东大学学报:工学版,2013,43(2):23?28.
[4] 吕刚.基于卷积神经网络的多字体字符识别[J].浙江师范大学学报:自然科学版,2011,34(4):425?428.
[5] PHAM D V. Online handwriting recognition using multi convolution neural networks [M]. Berlin Heidelberg: Springer, 2012: 310?319.
[6] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient?based learning applied to document recognition [C]// Proceeding of IEEE. USA: IEEE, 1998: 2278?2324.
[7] SIMARD P Y, STEINKRAUS Dave, PLATT John. Best practices for convolutional neural networks applied to visual document analysis [C]// International Conference on Document Analysis and Recognition (ICDAR). Los Alamitos: IEEE Computer Society, 2003: 958?962.
篇2
关键词:Deep Learning;多隐含层感知;DropConnect;算法
中图分类号:TP181
Deep Learning是机器学习研究的新领域,它掀起了机器学习领域的第二次浪潮,并受到学术界到工业界高度重视。Deep Learning概念根源于人工神经网络[3],它由Geoffrey Hinton等在Science上提出。它致力于建立模拟人脑分析学习机制的多层次神经网络,并通过这种网络分析解释数据,如视频、文本和声音等。Deep Learning的多隐含层使得它具有优异的特征学习能力,而且学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类。它的“逐层初始化”(layer-wise pre-training[4])可以有效克服深度神经网络在训练上的难度。本文在对Deep Learning算法分析的基础上,着重阐述了对Regularization of Neural Networks using DropConnect模型的改进。
1 Deep Learning算法分析
1.1 Deep Learning多隐含层感知架构
Deep Learning算法最优秀特征是多隐含层感知器架构,这种架构通过组合低层特征来形成更加抽象的高层属性类别或特征,并实现对数据分布式表示。Deep Learning的多隐含层结构是由输入层、隐层(多层)、输出层组成的多层网络(如图1所示),只有相邻层神经元之间有连接,同一层以及跨层节点之间相互无连接,每一层可以看作是一个浅层机器学习模型(如logistic regression,Support Vector Machines)。
图1 含多个隐含层的Deep Learning模型
Deep Learning的多隐含层感知结构模拟的是人脑的大脑皮层工作。人大脑皮层计算也是分多层进行[5],例如图像在人脑中是分多个阶段处理,首先是进入大脑皮层V1区提取边缘特征,然后进入大脑皮层V2区抽象成图像的形状或者部分,再到更高层,以此类推。高层的特征是由底层组合而成。使用含多隐含层感知器架构网络主要优势在于它能以更简洁的方式表达比浅层网络大得多的函数关系(如图2)。通过这种深层非线性网络结构,Deep Learning可以实现复杂函数的逼近,表征输入数据的分布式表示,并展现了强大的从少数样本集中学习数据集本质特征的能力。
图2 多层次实现复杂函数图
1.2 Deep Learning训练过程
(1)首先逐层构建单层神经元,使得每次都是训练一个单层网络。
(2)当所有层训练完后,使用Wake-Sleep算法[6]进行调优。
将除最顶层的其它层间的权重是双向的。向上的权重用于“认知”,向下的权重用于“生成”。然后使用Wake-Sleep算法调整所有的权重。让“认知”和“生成”达成一致,也就是保证生成的最顶层表示能够尽可能正确的复原底层的结点。
1.3 Deep Learning数据处理一般过程
Deep Learning算法通过传感器等方式获得数据之后,首先对数据进行预处理。在数据预处理中,标准的第一步是数据归一化处理,第二步是数据白化处理(如PCA白化和ZCA白化)。其次特征提取和特征选择。然后将输出作为下层的输入,不断进行特征提取和特征选择,直到学习到合符要求的最佳特征。在特征提取和特征选择过程中,常用自动编码、稀疏编码、聚类算法、限制波尔兹曼机、卷积神经网络等算法进行特征提取和特征选择。然后用反向传播算法、随机梯度下降算法、批量梯度下降算法等进行调优处理,再用池化等算法避免特征过度拟合,从而得到最终提取特征。最后将学习到的最终提取特征输入到分类器(如softmax分类器,logistic回归分类器)进行识别、推理或预测。
2 基于Regularization of Neural Networks using DropConnect模型改进
2.1 Regularization of Neural Networks using DropConnect模型[2]
该模型的四个基本组成成分是:
(1)特征提取:v=g(x;Wg)。x是输入层的输入数据,Wg是特征提取函数的参数,v是输出的提取特征,特征提取函数g()。其中g()为多层卷积神经网络算法函数,而Wg卷积神经网络的偏值。
(2)DropConnect层:r=a(u)=a((M*W)v)如图3。v是输出的提取特征,W是完全连接的权重矩阵,M是二进制掩码矩阵,该矩阵的每个元素随机的以1-p概率设置为0或以p概率设置为1,a()是一个非线性激活函数,r是输出向量。M*W是矩阵对应元素相乘。
(3)Softmax分类器层:o=s(r;Ws)。将r映射到一个k维的输出矩阵(k是类的个数),Ws是softmax分类函数的参数。
(4)交叉熵损失:A(y,o)=-∑yi(oi),i∈1,2,3…k。y是标签,o是概率。
图3 DropConnect示意图
2.2 模型改进描述和分析
对DropConnect模型的改进主要集中在上面它的四个基本组成成分中的DropConnect层。由于该层以随机方式让掩码矩阵M的每个元素Mij按1-p的概率设置为0,然后让掩码矩阵与层间的权重矩阵对应相乘即M*W。相对DropOut模型r=a((M*(Wv))得到的特征,r=a((M*W)v)得到的特征是比较好的特征r,同时也提高算法的泛化性。因为Dropconnect模型在权重W和v运算之前,将权重以一定的概率稀疏了,从运行结果看整体算法的错误率降低了。但是,由于是随机的让Mij按1-p的概率为0,并且这种随机是不可以预测的,故可能会导致某些重要特征对应的权重被屏蔽掉,最终造成输出ri的准确性降低。故就此提出了新的设计思想。
改进思想是用单层稀疏编码层代替DropConnect层,通过稀疏编码训练出一组最佳稀疏的特征。具体描述:让经过多层卷积神经网络提取到的特征v作为稀疏编码的输入,经过稀疏编码重复训练迭代,最终得到最佳的稀疏的特征r。因为稀疏编码算法是一种无监督学习方法,用它可以寻找出一组“超完备”基向量来更高效地表示输入数据。
总之任何对Deep Learning算法的改进,都是为了提取出最佳特征,并使用优秀的分类算法来分类、预测或推理,最终降低算法的错误率。而对于怎样改进算法,以何种方式降低错误率,则没有具体的限制。并且各种提取特征和特征选择的算法之间并不是互斥的,它们之间可以有各种形式的嵌套,最终的目标都是提高算法的正确率和效率。
3 结束语
Deep Learning使得语音、图像和文本等的智能识别和理解取得惊人进展,如Google Brain项目和微软推同声传译系统。它极大地推动了人工智能和人机交互快速发展。随着从学术界到工业界的广泛重视,Deep Learning算法的改进依然在继续,Deep Learning算法的正确率和效率仍在不断提高。Deep Learning的发展将加快“大数据+深度模型”时代来临。
参考文献:
[1]Hinton G E,Salakhutdinov R R.Reducing the dimensionality of data with neural networks[J].Science,2006(5786):504-507
[2]汤姆・米切尔.机器学习[M].北京:机械工业出版社,2003:1-280.
[3]吴昌友.神经网络的研究及应用[D].哈尔滨:东北农业大学,2007.
[4]HINTON G,OSINDERO S,TEH Y. A fast learning algorithm for deep belief nets[J].Neural Computation,2006(07):1527-1554.
[5]Hubel D H, Wiesel T N. Receptive fields,binocular interaction and functional architecture in the cat's visual cortex[J].The Journal of physiology,1962(01):106.
[6]Chuang Gao,Bin Chen,Wei Wei.Dynamic detection of wake-sleep transition with reaction time-magnitude[J].Neural Regenerattion Research,2009(07):552-560.
篇3
究竟深度学习、机器学习与人工智能的关系是什么?能为人类带来怎样的改变?《中国信息化》记者采访到了IEEE的两位专家,为读者解答关于人工智能与机器学习的技术与应用趋势。
常规人工智能帮助机器自学
首先,我们需要明确一个问题,深度学习和人工智能之间的关系是什么?
Steve Furber博士是IEEE会士,“欧盟人脑计划”神经形态计算系统项目和SpiNNaker计划的负责人,目前担任英国曼彻斯特大学计算机科学学院教授。对于这个问题,Steve Furber表示,分清楚通用人工智能(AGI)和常规人工智能(或机器学习)之间的区别非常重要。前者是指机器能够获得像人类一样的智慧和能力,而后者是指开发出各种算法来让机器通过对数据进行深层次的统计分析以进行“自学”。
目前看来,通用人工智能的发展依然任重道远。而深度学习是机器学习(常规人工智能)算法的其中一种,最初的发展来源于吉奥夫.辛顿(Goeff Hinton)的大力推动。大概十年前,吉奥夫.辛顿重新整理了他在上个世纪80年代的研究成果并将其拓展为深度神经网络理论。他发现电子计算机技术经历了这样一段时间发展,已经取得了日新月异的进步,很多在上世纪无法实现的技术在当时已经能够实现了。另外,他也在学习算法的一些分支领域中有了突破性的研究。
所以,现在很多在应用领域中性能最佳的机器学习算法都是基于模仿人类大脑结构的神经网络设计而来的。
Kevin Curran博士是IEEE高级会员,IEEE互联网安全领域专家,英国厄尔斯特大学计算机科学专业教授、智能环境与虚拟世界研究实验室团队总负责人,曾参与多个“欧盟框架计划”科研项目及技术转移项目。
Kevin Curran表示,人工智能涵盖的领域十分广泛,深度学习只是其中的一个分支,并隶属于机器学习的范畴。至今为止,人工智能的概念仍是非常宽泛的。因此,为了实现多样性的应用,人工智能需要有自主“思考”能力与机器学习技术的支持,深度学习便是帮助机器实现“独立思考”的其中一种方式。
所谓深度学习,就是将数据输入系统后,通过建模及模拟人脑的神经网络从而进行学习的技术。
他说,我们可以这样来比喻,像生物神经元一样,神经网络系统中有一系列分层排列的模拟神经元(信息传递的连接点),且经过每个神经元的响应函数(又称“激活函数”)都会分配一个相应的“权值”,表示彼此间的连接强度。通过每层神经元相互“连接”,计算机就可以由达到最佳方案时所有神经元的加权和,从而可以即时实现这一决策方案。
当然,计算机也会参考类似的先例,在庞大的数据库中调出对应的决策方案,如此复杂的决策过程都是由计算机在深度神经网络内部自动完成的。不过对于这一点,人类更胜一筹,因为人类可以直接对比不同决策的测试结果,在总体上更直观地评估深度学习推算的决策方案。可以预见,深度学习将与其它各项技术结合,持续深化人工智能的技术发展及应用领域。
深度学习解决社会难题
明确了深度学习和人工智能的关系,再来看看最近深度学习取得的技术突破体现在哪些方面?这些突破离商用或者离我们的生活有多远?
Steve Furber表示,继当初杰夫. 辛顿的突破之后,相关领域的科研毫无疑问已经取得了长足的发展。他认为其中最重大的一项成就,应该就是Yann LeCun在卷积神经网络领域的研究成果。卷积神经网络作为最有效的深层神经网络,现在已经被越来越广泛地运用到了很多智能应用之中,并且它们也越来越像人类大脑了。比如现在常常在用的Google, Siri和Facebook等都应用了卷积神经网络。
Kevin Curran则表示,目前深度学习在计算机视觉,自动语音识别,自然语言处理,音频识别和生物信息学等领域都取得了技术性突破,并在不同的应用领域都展示了深度学习的极佳效果。全球IT行业巨头Google, Microsoft, Facebook等企业已经纷纷把深度学习作为重点项目,应用到他们的各种研究项目。
那么,对于深度学习和人工智能的商业化会首先应用在哪些领域?
Steve Furber表示,深度学习和人工智能的商业化应用已经率先在语音识别系统方面得到实现,例如Apple公司的Siri,微软公司的Cortana等。
Kevin Curran则认为,深度学习可以用来解决任何具有对抗性的问题,例如需要用到策略的博弈,各种比赛,战争或金融交易。短期内,它可被用于智能手机助手,优化其辅助功能;但从长远来看,它将能够帮助科学家攻克诸如气候模拟、医疗疾病分析等社会难题。同时,深度学习也有助于研发反应更加迅速的机器人,可以更智能地应对改变环境因素时的情景。最终,深度学习将能迅速地推进科研进度。凭借其强大的运算性能及庞大的数据分析,科研人员可以产出更多研究硕果,有望在更短的时间内实现对现有技术的重要突破。
而对于在其他领域的应用发展,Kevin Curran认为,医疗领域是目前深度学习和人工智能取得重要成果的关键领域之一。他说,深度学习能够探测未来个人健康的潜在风险。它可以通过一系列健康大数据中寻找疾病的致病机理,从而实现在健康和疾病相关研究领域的重大突破。这仅靠人工计算是永远不可能实现的。
而对于中国目前非常关注的智能制造领域,Kevin Curran认为,制造机器人是深度学习在应用领域的经典案例。深度学习的机器人能够自动适应外部环境变化。举个例子,现阶段的机器人都需要事先编程才能精准地完成相应的任务。一旦要让它们完成程序以外的任务,就必须重新改写程序代码。例如,专门负责修理某车型的机器人面对一款完全不同的车型时便不能顺利完成修理任务。而具备深度学习技术的机器人就不一样了,即时让它们去修理从来没有“见”过的车型,它们也可以自动重新调整算法和技术,顺利完成修理工作。
中国占据一席之地
人工智能研究的起步,一般被认为是在20世纪50年代。中国则迟至80年代,才实质性进入人工智能研究领域。现在,在深度学习和人工智能领域,中国和世界的差距主要体现在哪些方面?
Steve Furber认为目前在深度学习方面最前沿的研究仍然主要集中在包括Google以及DeepMind和Facebook等为数不多的几家大型科技公司的研发部门之中。但是,近年来美国也有致力于这一领域的创业公司如雨后春笋般不断涌现。可以预见,在未来这领域内的技术研究将有突破性的进展。
篇4
关键词:灰值动态学卷积模板卷积投影牌照识别
基于图像理解的汽车牌照自动识别系统是智能交通系统一个重要分支,有着非常广泛的应用前景,而把汽车牌照从复杂的汽车图像中分割出来是汽车牌照自动识别系统必须解决的关键问题。在过去的十几年中,各国的科研人员提出了不少提取汽车牌照的方法。Choi和Kim提出利用Hough变换寻找垂直边缘提取汽车牌照的方法,此方法由于许多汽车前部散热器产生的垂直边缘和某些牌照边框的扭曲或某些汽车牌照没有边框而鲁棒性较差。S.K.Kim和H.J.Kim提出的基于遗传算法分割提取汽车牌照的方法,最大缺点是耗时长,难以进行实时处理。S.H.Park提出的一种基于神经网络提取汽车牌照的方法,使用二个时延神经网络在水平和垂直方向对输入图像进行滤波,得到牌照的候选区域,然后利用牌照的长宽比、面积、面积与周长比来区分真正的牌照区域与类牌照区域。此方法要求图像中的牌照尺寸基本不变,一旦图像中的牌照尺寸发生了较大的变化,必须对神经网络重新进行训练。T.R.Crimmins提出了一种数字形态学方法,此方法用不同尺寸的每个可能字符作为结构元素,采用击中击不中方法先提取输入图像中的字符,再根据牌照字符的语法得到汽车牌照,这种方法计算量非常大且易受噪声影响。C.H.Poon提出了一种灰值形态学方法,它通过检测字符中的直线段和字符间的空间来提取牌照,这种方法耗时较多,且没有利用版照的尺寸信息。C.M.Hwang提出了空间频率方法,它利用牌照区域内空间频率变化大的特性,对图像进行一阶差分。差分图在牌照区域内形成多个峰,然后利用峰的幅度、宽度和密度区分真正的牌照区域与类牌照区域。这种方法具耗时少、抗噪能力强的优点。本文提出的灰值形态学方法仅利用了牌照区域内空间频率变化大的特性而且利用了牌照区域字符笔划具有高曲的特性,因而比单纯的空间频率方法更加有效。通过建立牌照与卷积算子形态学结构元素尺寸的相互关系。本文提出的方法对不同尺寸牌照具有很好的鲁棒性。
1数字形态学
数字形态学是一种重要的数字图像处理方法和理论。在数字形态学中,两种最基本的变换或运算是腐蚀和膨胀,其它形态学变换都可通过它们来定义。下面列出了一些灰值形态学变换的定义。
图像f(x,y)平移(a,b)定义为:
f(a,b)(x,y)=f(x-a,y-b)
图像f(x,y)相对于原点的反射为:
f^(x,y)=f(-x,-y)
二幅图像f(x,y)和g(x,y)的最小记为(f∧g)(x,y)。
当(x,y)位于图像f的定义域D(f)和图像g的定义域D(g)的交集D(f)∩D(g)内时:
(f∧g)(x,y)=min{f(x,y),g(x,y)}
否则:
(f∧g)(x,y)=0
二幅图像f(x,y)和g(x,y)的最大记为(f∨g)(x,y)。
当(x,y)位于图像f的定义域D(f)和图像g的定义域D(g)的交集D(f)∩D(g)内时:
(f∨g)(x,y)=max{f(x,y),g(x,y)}
当(x,y)∈D(f)且(x,y)∈D(g)时
(f∨g)(x,y)=f(x,y)
当(x,y)∈D(g)且(x,y)∈D(f)时
(f∨g)(x,y)=g(x,y)
f(x,y)被g(x,y)膨胀定义为:
(fg)(x,y)=max{f(x-a,y-b)+g(a,b)}
(a,b)∈D(g)
f(x,y)被g(x,y)腐蚀定义为:
(fg)(x,y)=max{f(x-a,y-b)-g(a,b)}
(a,b)∈D(g)
开运算定义:
fog=(fg)g
闭运算定义:
f·g=(fg)g
Top-Hat变换定义:
Hat(f,g)=f-fog
与Top-Hat变换相对的是波谷检测器(Valley变换),其定义为:
Valley(f,g)=(f·g)-f
形态学梯度有下面三种形式:
Grad(f)=f-(fg)
Grad(f)=(fg)-f
Grad(f)={[(fg)-(fg)]}/2
2牌照提取算法
在牌照提取算法中,需要用到卷积、模板卷积和卷积投影等概念。下面对它们进行定义。
对于图像[aij]m×n,i=0...m-1,j=0...n-1,模板[aij]p×q。p<m,q<n,其卷积、模板卷积和卷积投影都是一维数组。
水平模板卷积
垂直模板卷积投影vmp:
水平模板卷积投影hmp:
图1中牌照区域的长为173象素、高为36象素。从左到右、从上到下的8条曲线依次为牌照区域灰度图第10~17条水平方向的灰度值。通过观察发现,在牌照区域的水平方向不令空间频率变化大,而且具有许多陡峭的峰(欲)和高曲率点。而灰值形态学的梯度变换可以对图像进行高通滤波,灰值形态学的Top-Hat变换和Valley变换可以撮高曲率点、波峰和波谷。
进行形态学变换,需要考虑二个因素:结构元素和变换类型。变换类型准备采用灰值形态学的梯度变换、Top-Hat变换和Valley变换。结果元素采用n×1的维水平结构,以提取水平方向上的高频分量、波峰和波谷。结构元素的大小n对Top-Hat变换和Valley变换的结果结构元素的大小n对Top-Hat变换和Valley变换的结果有着很大的影响,因此问题的关键是怎样确定n。
分析图1中水平方向的灰度曲线,发现在穿过字符的水平线上,灰度曲线波峰的宽度与字符垂直笔划的宽度存在着某种线性关系。根据中国汽车牌照的一般规范,牌照上字符的垂直笔划宽度与牌照的宽度也存在着某种线性关系。结构元素的尺寸n与灰度曲线波峰的宽度又可建立一种线性关系。因此可建立n与牌照宽度w的一种近似线性的关系:
n=Integer{(w/k)+b}
式中的Integer()表示对括号内的值取整。w、b都为整数。根据经验令w、b分别为25和0,则:
n=Integer(w/25)
由上式可知,当牌照的宽度w变化25个象素时,结构元素的大小n才变化1个单位,也就是说n对w不是很敏感。
牌照区域提取算法包括以下几步:
(1)缩小图像:对输入的灰值汽车图像进行隔行隔列抽样,得到一幅大小为四分之一原因的新图像。接下列抽样,得到一幅大小为四分之一原图的新图像。接下来的处理均在新图像上进行,这样可以大大减少处理时间,提高算法的效率。根据形态学的尺度变换兼容性原理,对图像缩小(放大)后再进行形态学变换,只要对结构元素做相应的变换,结果不变。
(2)水平分割:对汽车图像进行水平分割,得到几个可能含牌照的水平区域。
(3)垂直分割:对第(2)步所得到的每一个水平区域进行垂直分割,得到一些牌照的候选区域。
(4)牌照区域甄别:分析各个候选区域得出真正的牌照区域。
2.1水平分割
分别对汽车图像进行灰值形态学的梯度变换、Top-Hat变换和Valley变换,如图2。一般来说,在大多数汽车车牌照自动识别系统应用中,CCD摄取的汽车图像中牌照的大致宽度和高度是已知的。如果牌照的宽度为w∈(a,b),则取水平模板m×1,其中m=(a+b)/2。用模板分别对图像的梯度图、Top-Hat变换图和Valley变换图进行水平模板卷积。对每帧变换图取每一行模板水平卷积的最大值,得到1个一维数组,3幅变换图共得到3个一维数组g1,ti和vi,其中i大于等于1,而小于等于图像的高度,其曲线如图2的b、c、d。观察图2可以发现,由于受车体上其它字符和车前灯等因素的影响,仅仅依靠梯度图较难对牌照进行水平定位,而结合Top-Hat变换图和Valley变换图,能更好地对牌照进行水平定位。据此,构成了1个一维数组pi。
pi=gi×ti×vi
其曲线如图3。取图3中最高峰的位置作为牌照的水平中线,为了确保不会出错,把次高峰也作为牌照的另一备选位置。了高峰和次高峰的位置,分割出2个宽为汽车图像宽度,高为牌照的最大可能高度b的区域,如图4中的a和b。
2.2垂直分割
对图4中的a和b二个区域分别进行灰值形态学的梯度变换、Top-Hat变换和Valley变换,并在垂直方向对变换图进行卷积得到3个一维数组gi、ti和vi,其中i大于等于1,而小于等于图像的宽度w,其曲线如图5和图6。qi=gi×ti×vi
的曲线如图7。利用下面的公式分别对图4中的a和b进行垂直分割。
{(m,n)|qi>kT,i=m...n,n-m+1∈(a,b)}
其中:T=Max(qi),k为一经验值,(a,b)为牌照的宽度范围。
i=l...w
分割结果如图8所示。
2.3牌照区域甄别
篇5
【关键词】Android平台 人脸检测 人脸识别系统
1 引言
近年来,信息安全越来越受到人们关注,身份验证和识别技术成为众人瞩目的焦点,生物特征识别技术和人工智能技术不断更新发展,其中,人脸识别技术因具有并发性、非接触性、非强制性、操作简单等特点,被越来越广泛地运用到各个领域中。Android系统是目前移动设备的主流操作系统之一,在移动操作系统市场份额中占据了主导地位。随着人们在移动领域信息安全意识的提高,在移动平台上进行人脸识别具有广阔的发展前景,同时也面临诸多挑战。本文结合Android移动终端的特点,研究基于Android的人脸识别系统的实现,更好地满足移动领域信息安全方面的市场需求。
2 人脸识别原理
人脸识别技术是一种基于生理特征的识别技术,通过计算机提取人脸特征,并根据这些特征进行身份验证的一种技术。广义的人脸识别过程包括人脸图像采集及预处理、人脸检测与特征提取和人脸的对比与识别三大部分,其原理如图1所示。
人脸检测的算法有很多种,典型的有特征抽取算法、人脸小波检测、基于模板匹配、神经网络、支持向量机方法、Adaboost算法等。本文选择Adaboost算法实现人脸检测。人脸识别技术包括特征提取和特征识别,实现方法可概括为3类:基于几何特征方法(欧式距离判别法)、基于模板方法(特征脸方法、神经网络方法等)和基于模型方法(隐马尔科夫方法)。本文选择基于LDP的特征脸算法实现人脸特征提取与特征识别。
3 人脸识别算法
3.1 图像预处理
现实生活应用人脸检测与识别系统时,人脸的图像是在各种随机的场景下由摄像头或照相机拍摄的,因此受到光照变化、背景色彩、设备质量以及人脸姿态等因素的影响,需要对其进行预处理,主要包括光照补偿、滤波去噪处理和几何归一化的处理,经过这些处理,后期操作中将得到较好的识别效果。
首先定位人眼。为了提高定位效率,先确定人眼在人脸图像中的大概位置,然后基于这个大致的范围,采用灰度积分投影和灰度差分积分投影相结合的方法精确定位人眼:
M(y)=kphori(y)- Dhori(y)
其中,k为系数,K phori(y)为灰度积分投影,Dhori(y)为灰度差分积分投影。
其次是脸部图像的几何变换和剪裁,根据所检测到的人眼位置,通过图像旋转、剪裁、缩放等手段,使得脸部图像中人眼是对齐的且不包含背景、额头、耳朵和下巴,并将处理后的脸部图像缩放到70×70固定大小。
再次是分离直方图均衡,这个过程能够使得每一个脸部图像都具有相同的对比度以及亮度。
最后是图像平滑,图像平滑能够有效地减少图像的噪声。
3.2 人脸检测
自适应增强(adaptive boosting,AdaBoost)是一种需要监督的机器学习算法。特征选取和特征计算决定了AdaBoost算法的运行速度。Viola等人提出了基于Haar特征的AdaBoost人脸检测算法。本文使用Haar 特征进行特征提取。
基于特征的检测能对选定区域的状态进行编码。矩形特征是对输入图像使用矩形进行提取特征。Haar特征是一些由黑白矩形组成的特征,脸部的一些特性可以用矩形特征简单地描述,矩形特征值是两个不同的矩形区域像素和之差。如果图像特征表示眼睛的颜色比脸颊上端的颜色深。可以用特征值来编码特征,特征值定义为:
V=Sum黑-Sum白
其中,Sum黑、Sum白分别表示黑色和白色矩形覆盖区域的像素和。
使用Viola等人提出的积分图像的概念,可加快矩形特征的计算速度。进而计算出Haar特征的特征值,定义积分图中位置(x,y)处的值为待测图像位置(x,y)处的上方和左侧所有像素之和。
S(x,y)=s(x,y?1)+i(x,y)
C(x,y)=c(x?1,y)+s(x,y)
其中,c(x,y)为积分图在(x,y)点处的值,i(x,y)为原图像素点(x,y)处的灰度值,s(x,y)表示一行灰度值的累加和。初始时s(x,-1)=0,c(-1,y)=0。
弱分类器对正负样本分类的准确率应大于 1/2,这样训练算法最终收敛。一个弱分类器 h(x,f,p,θ):其中 1 表示人脸,0 表示非人脸。
计算在每个特征f下的所有样本特征值,并进行排序。然后扫描一遍排好序的特征值,从而确定特征f的一个最后阈值,最终训练成一个弱分类器。所有迭代得到的弱分类器,并按照―定的权值叠加起来,得到一个强分类器。将多个强分类器连接起来,得到Adaboost级联分类器。如图2所示。
3.3 人脸特征的提取
局部二值模式LBP(Local Binary Patterns)是一种从局部纹理定义中衍生出来的算法,所谓的纹理是图像分析中常用的鉴别特征,它所含有的信息能够表征物体表面的变化。由于其优秀的分类特性和计算的简便性,使得其广泛的运用于图像检索、人脸分析和工业检测等领域。
Ojala等人提出的LBP算子的模板大小被定义为3x3,以此模板依次扫描图像中的像素点,将该模板的中心点位置的灰度值与周围位置的8个灰度值相比较,若邻域位置的灰度值大于中心位置的灰度值则该邻域位置标记为l,相反标记为0;将这中心像素点周围的8个像素点顺时针依次连接组成8位二进制数;将该二进制数转换为十进制数,替代中心像素点位置的像素值。
gc代表中心像素位置的灰度值大小,P为该中心位置周围邻域像素点的个数,gi(i=O,l,...,P-1)是周围第i个像素位置的灰度值。则以(xc,yc)为中心位置的一个局部邻域的纹理特征可以表示为:
LDP算法结合了LBP的优点,在其基础上考虑到特征的方向性,能更有效和更为鲁棒的描述人脸。与LBP码相类似,我们需要对得到的卷积结果进行二值化处理,需要选定一个阈值。这里我们对返回的卷积结果的绝对值b0,b1,b2,b3,b4,b5,b6,b7从大到小进行排序,取其中第K个大小的值为阈值,大于该阈值的赋值为1,相反为0。
LDP算子对于存在噪声和非均匀的光照变化的图像具有更好的鲁棒性。
4 Android平台人脸识别系统设计
4.1 Android JNI技术
本文所研究的人脸识别算法是由C语言实现,并且调用了Opencv库,这样相对于使用Java语言实现有较高的执行效率。Android系统应用层采用的Java语言,但Android系统中也提供了JNI接口使得在Android程序中能方便的调用C语言或其他语言。JNI位于本地库与Java框架层之间,其结构如图3所示。
4.2 系统功能模块
Android平台上的人脸检测与识别系统主要由图像采集模块、人脸图像预处理模块、人脸检测模块、人脸注册模块和人脸识别模块等共五个模块组成。
图像采集模块:利用Android平台摄像头进行图像采集,调用Opencv库,实现调用摄像头、对拍摄的物体进行自动对焦、连续拍照等功能,快速获取图像帧的信息。
人脸图像预处理模块:对采集到的图像帧进行光照补偿、滤波去噪处理和几何归一化的处理等处理。
人脸检测模块:经预处理的图像采用Adaboost人脸检测方法获取人脸,并对裁剪出的人脸图像进行标记。
人脸注册模块:经过训练后可以输入姓名,然后可连续录制十张照片,并按照人脸检测中的步骤提取出10张人脸照片保存到SD卡中,将人脸姓名和编号按顺序写入faceN.txt文件中。
人脸识别模块:根据测试者人脸图像计算人脸LDP特征,得到识别结果。如果测试者的人脸特征在我们设置的阈值的内则,输出识别人脸的姓名,否则提示人脸库中无此人,请摆正人脸配合识别。
本文设计并实现了基于Android的人脸识别系统。针对Android平台的硬件能力有限的特点,开发了一种适用于Android平台的系统资源消耗较少的人脸识别系统。系统开发过程中主要使用了Adaboost人脸检测算法和基于LDP特征脸的人脸识别算法,采用OpenCV视觉开源库在Android平台上加以实现,目前该入脸识别系统已经达到较高的识别水平,具有很好的实用性和应用前景。
参考文献
[1]陈会安,李强.Java和Android开发实战详解[M].北京:人民邮电出版社,2014.
[2]HUGHES A.Android mobile security:a comprehensive evaluationof its feats and flaws[D].UTICA COI.I.EGE,2015.
[3]赵丽红,刘纪红.人脸检测方法综述[J].计算机应用研究,2004,21(09):l-4.
[4]张恒喜,史争军.基于SQlJte的Android数据库编程[J].电脑编程技巧与维护,2011(21):30-31.
篇6
关键词:小波变换;多分辨率分析;谐波;电能质量
中图分类号:TM714.3 文献标识码:B
文章编号:1004373X(2008)0313402
Application ofWaveletandMulti―resolution
Theory to the OilfieldDistributionNetworkHarmonic Detection
WEN Jiabin1,LI Jinghua1,ZONG Jidong2
(1.Electric & Electronic Engineering College,Harbin University of Science Technology,Harbin,150040,China;
2.The Seventh Oil―producing Factory,Daqing Oil Field Co.Ltd.,Daqing,163000,China)
Abstract:Regarding low voltage distribution network of The Seventh Oil―producing Factory,Daqing Oil Field as the research background,the power quality of multi―points in this factory is detected.In view of the harmonic situation,the wavelet and multi―resolusion theory with favorable retractility and translation characteristic is selected,using Matlab to analyze the harmonic current,according to the harmonic reconstruction and the error account,the method of harmonic detection is proved to have very good performance.
Keywords:wavelet transformation;multi―resolution analysis;harmonic;power quality
1 引 言
目前,油田钻采系统与油气集输系统的驱动装置逐步由恒速的交流电动机传动改为可调速的电气传动系统,油田电系统中电力半导体装置日益增多,导致供配电网中谐波日益严重,这对用电设备和系统设备产生严重危害,必须对其进行研究并采取相应的措施。
本文对大庆油田有限责任公司第七采油厂葡三联合站、敖包塔联合站、葡四联合站站内低压配电网进行大量点的电能质量检测,针对近年来应用变频设备、无功补偿装置对电网及其用电设备产生的谐波影响这一问题,运用小波方法开展谐波检测技术的研究。
从国内外的现状来看,主要的谐波测量及分析方法有4种:基于傅里叶变换的谐波检测方法;基于瞬时无功功率理论的谐波检测方法;基于人工神经网络的谐波分析、检测方法;基于小波变换的谐波分析、检测方法。本文主要选用小波变换的方法对谐波电流进行检测分析。
2 小波变换与傅里叶变换
小波变换的思想来源于伸缩和平移方法,其概念是在1984年由法国地球物理学家J.MorLet正式提出[1]。小波变换作为一种新的数学工具,是传统傅里叶变换的发展,在信号处理领域中有着巨大的潜在应用前景。传统的快速傅里叶变换,是对信号在整个时间过程中变化情况的分析,所以尽管在频域内是局部的,在时域内却是全局的、非局部的。小波是一个时间函数,他的正负波动同时速降为零,其傅里叶变换也呈现为带通滤波器的频率特性,也就是说,小波在时域和频域内都是局部化的。将小波函数伸缩和平移得到的一组函数称为分析小波,他在时域和频域内也是局部化的。与窗口傅里叶变换不同的是,小波变换的时间――频率窗不是固定不变的,这也是小波变换与傅里叶变换相比最大的优势。因此小波变换非常适合于提取电力信号中的暂态信号。
3 小波多分辨率分析法
采用正交小波变换时,任意信号X(t)∈L2(R)可采用多分辨率分解公式表示为:
式中,φj,k=2-J/2φ(2-Jt-k)为尺度函数;Ψj,k=2-J/2为小波函数;{φj,k(t)}为尺度空间Vj的标准正交基;{Ψj,k(t)}为小波空间Wj的标准正交基。Vj-1=VjWj,其中Wj为Vj在Vj-1空间的正交补空间。J为尺度j的某个特定值,分解系数aj(k)和dj(k)分别称为离散平滑近似信号和离散细节信号。其递推公式如下:
式中,h0和h1分别是低通数字滤波器和高通数字滤波器的单位取样响应。取h1(k)=(-1)kh0(k),构成正交镜像对称滤波器组。aj+1(k)和dj+1(k)分别是h0(-k)和h1(-k)卷积后再抽取得到的信号序列。多分辨率分解只是对低频部分进一步分解,而高频部分则不予以考虑。所以小波多分辨率信号分解可用多抽样率子带滤波器组来实现,在小波分解中,设采样频率为fs,则 x(n)占据的频带为0~fs/2 , 经过J级分解,得到d1(k),d2(k),…dj(k),aj(k)这J+1个号序列,所占据的频带依次为fs/4~fs/8,fs/8~fs/16,…,fs/2j+1~fs/2j,0~fs/2j+1,由此可以将所需的频段提取出来,这就是用滤波器组实现小波多分辨率分析的原理[2]。
图1 三层分辨率分解树结构图
Daubechies小波具备刻画信号的全局和局部奇异性变化的特点,尤其是对局部奇异变化非常敏感。由前边的分析可知多分辨率分析的实质是不同尺度下的带通滤波器和低通滤波器的设计。
4 检测实例分析
本文以大庆油田有限责任公司第七采油厂的三联输油岗2号外输泵进变频50 Hz电流为例进行分析,测量仪器选用日本日置电能质量分析仪,图2为根据测量数据绘制出来的电流波形和基波波形。
根据所测的电流绘制的电流频谱图见图3,测量数据表明在接入变频器情况下电流谐波较为严重,以5次、7次为主且已超出GB/T14549―93《电能质量公用电网谐波》的标准。
在进行小波变换时,根据Daubechies小波的变换原理[3] ,选用db24小波进行4次分解,采样频率为3 kHz。经小波分解,得到不同频带分量,具体的各高频、低频部分如图4所示。
图2 测得的原始电流及其基波电流
图3 2号外输泵谐波电流频谱分析
图4 小波分解后的低频、高频部分
图4为经过db24小波分解后的高频及低频部分,其中,a(4)~a(1),b(4)~b(1)的频带如表1所列:
其低频系数为a(4),他所占据的频带为0~f/25,原始信号中占0~93.75 Hz范围内的仅含基波,所以由a(4)重构即可得基波分量。
将提取基波波形放大(见图5),与原基波波形比较,可以看到,低频的第四层将正弦信号中的最低频率组成清晰地分离出来了。
图5 提取的基波放大波形
图6为经dbN小波重构后的谐波波形及重构误差,由图6可知,重构后的波形与原波形误差很小,仅为9.671 0e-8,重构效果较好。
图6 经dbN小波重构后的波形及误差
由于小波分析是基于多分辨率分析的信号处理理论,因而在上述谐波检测仿真中,不同的尺度具有不同的时间和频率分辨率,因而小波分解能将原始信号的不同频率成分分开,所以谐波可以检测出来。
5 结 语
本文对大庆油田有限责任公司第七采油厂变频、无功补偿装置的谐波电流进行了检测分析,运用具有良好的伸缩、平移特性的小波分析方法,对谐波进行了仿真研究。分析和仿真结果表明,小波多分辨分析法可以有效地检测电力系统的电压和电流中的谐波含量并分解出基波信号和谐波信号,故其可以应用于谐波的检测和补偿。
参考文献
[1]胡昌华,张军波.基于Matlab的系统分析与设计――小波分析[M].西安:西安电子科技大学出版社,2001.
[2]梁玉娟,李群湛,赵丽平.基于小波分析的电力系统谐波分析[J].电力系统及其自动化学报,2006,15(6):67―70.
篇7
关键词:图像 并行处理 研究 应用
中图分类号:TP751 文献标识码:A 文章编号:1007-9416(2013)12-0060-02
1 并行处理技术在图像处理领域的应用
数字图像处理技术是现代信息处理技术中的一个重要内容,也是计算机应用领域中的主要内容,随着我国信息技术的发展,广大学者对于图像的并行处理技术研究热情也日渐高涨起来。
1.1 图像分割技术
在图像处理技术中,为有效实现对图像信息的识别,分析以及数据编码处理,图像分割技术成为图像处理中的重要组成部分。在图像的分割处理过程中,对分割细节的处理提出了较高的要求,细节的精细化处理为之后的图像处理奠定了稳固的统计基础。为有效提升图像分割技术的精准性,在对图像进行分割处理时,会利用并行处理量对分割计算作进一步加工。图像分割方法的实际应用分为二阶统计和三阶统计两种计量方式,而由于统计量的不同数据特点,又会将不同阶的统计量分为不同阶矩,以此保证图像分割技术的精细化。在对图形进行分割处理过程中,首先应对图像局部进行非监督非参数变化检测,对于图像中的不同区域进行边缘数据的统计估算,以此实现对分割后图像进行并行处理的目的。为保证并行处理的计算精度,在对图像进行分割处理时,应进一步对图像中不同纹理的并行处理方差进行计算,以此确定图像的峰态和偏态特性,进而实现以并行处理技术对图像的精确分割。
1.2 图像滤波技术
在以并行处理量对图像的高斯过程进行统计时,由于高斯过程会在图像中形成高斯背景噪声,并对图像的滤波产生影响,因此将并行处理应用于图像的高斯计算中,通过对高斯过程进行有效的噪声控制,能够在最大程度上减小图像的滤波处理中高斯噪声的影响。在将并行处理量应用于图像的高斯过程中时,通常采用数学中迭代重建的计算方法,即通过在对图像进行并行处理谱计算时,通过对图像进行双阶谱相位的测定和幅值的测量,使图像的空间域能够有效避免噪声的影响,进而得到去噪后的图像信息。并行处理量在图像的滤波技术应用中,实现了对并行处理谱域的重置和构建,有效实现了图像的去噪处理,并在同时保留了图像数据的细节,最大限度的维护了图像的高斯特性,保证了并行处理处理中图像的完整性。
1.3 图像的特性识别和提取
为有效解决图像处理中不变性图像识别和处理的问题,通过将并行处理应用于图像的变量计算中,并对图像中低阶矩和频域进行并行处理测定,能够实现对问题的有效处理。图形的特性识别和提取,即对图像的局部特征和构造不变量的方式进行并行处理的统计计算,并通过获取图像的幅值信息,实现对图像性信息的获取。图像特性识别和提取技术的发展是基于超光谱图像的自动目标识别技术基础上进一步深入而产生的,图像处理学者通过结合并行处理量和数字虚拟维,将二维傅里叶精确的转化为了图像的一维投影,以此实现了对图像平移和尺度的测量。而在对图像进行旋转系数测定时,由于图像旋转造成的图形特性紊乱使得其并行处理矩在并行处理时失去常数的稳定性,进而造成图像的特定发生变化,无法实现有效的图像特性识别和提取。为有效维护图像特性的稳定性,在对图像内容进行分析时通常采用图像内容识别技术,通过并行处理量和PCA技术相结合,加强图并行处理技术中的线性判别能力,以此实现对图像特性的识别和提取。
1.4 图像检测技术
所谓的图像检测技术就是通过一定的技术手段对于图像中有价值信息进行获取,实现图像的高效利用,对于图像的分析和使用更准确以及更具针对性,图像检测技术现阶段主要有两个方面的应用,其一就是图像边缘检测技术,再者就是图像中具体有价值信息技术检测。比如交通管理中交管局对于交通状况的分析,都是通过对于图像中车辆以及行人数量和通行情况进行图像检测处理,还有遥测遥感技术领域中地理检测对于某地段的土壤分析、大气气候条件分析等都是通过卫星遥感技术获取对应的图像,在由图像检测技术获取相关的信息来实现。利用并行处理量在处理图像检测技术时提取图像边缘信息,在图像小模块中利用并行处理技术综合分析其非对称分布的信息。再有就是利用HOS技术在生物医学中对于病变组织实行检测,其关键是要先对生物组织进行扫描确定,然后利用数字射频技术对扫描空间的HOS进行分析。并行处理量在图像检测中的较为常见的应用还有对于乳腺的检测,现阶段X线图像都是通过子带分解滤波器进行处理,然后将带子的图像分解成为交替叠加的正方形区域,利用并行处理量中的并行处理矩估计各个区域的偏态数据,这些由并行处理量算出来的技术参数都能够作为确定区域的非对称性和脉冲幅度,实际应用效果表明并行处理量在检测微钙化方面有着较为明显的效果。还有较为常见的利用是在机动车的检测中,并行处理量在机动车检测中,能够通过扫描产生的HOS信号对于机动车进行车身进行检测,并且在检测前期并不需要了解待检机动车的型号,就算检测条件比较复杂,也能够实现对于待检车辆的检测。
1.5 图像复原技术
图像复原技术的开发是为了改善有价值图像的质量,比如在网络传输中容易出现图像质量损失的情况,或者是对于图像要进行特效处理,再者就是对于失误操作引起的图像的恢复技术。图像处理领域对于图像的恢复技术从上世纪就开始了,当时在图像处理领域掀起了较大的波澜,许多研究者相继发表了自己的图像恢复技术,但是随着图像恢复要求的不断增高,原有的图像恢复技术已经不能够满足图像复原的要求了,因此人们开始着力于并行处理量技术。通过研究发现,采用并行处理量对图像进行修复,不用对于原始图像进行评估来建立修复模型,并行处理技术能够估计出原始图像和现有图像的模糊数据。尤其是后期盲图像恢复技术的研究成功,为图像复原技术带来了新的技术革命。盲图像恢复技术包括模糊投影技术和恢复投影技术两部分内容。对于模糊投影处理技术而言,要首先对需要处理的图像进行投影变换,将二维图像转换为一维图片,然后再通过盲图像处理技术进行点扩散估计。对于恢复投影技术,则是先利用并行处理量技术采用去卷积操作,是喜爱那投影回到原图像中实现图像复原的目的。目前还有更为先进的含噪模糊图喜爱那个PSF技术来实现图像的复原,这种技术能够对图像别细微的地方进行修复处理,并建立基础的模型,图像的基础参数用并行处理图像处理法来进行确定,主要是利用并行处理量中的并行处理累积量来确定,之前的使用模拟实验验证了该技术的可行性。还有研究人员将研究方向转向模糊类型的并行处理量技术研究,从目前的研究进展来看,该技术在图像恢复中有着较为明朗的应用前景。
2 并行处理中存在的问题及其前景展望
在并行处理技术的不断进步中,由于其理论知识和实际应用仍存在一定差距,使得图像的并行处理研究领域中仍存在技术瓶颈,如在图像内容和信号处理的融合过程中,由于HOS理论仍侧重于对图像处理技术的讨论,而导致图像与信号处理无法实现有机融合,使得图像和信号的转化技术出现漏洞。在图像和信号处理过程中,并行处理中存在的问题会对图像的处理产生直接的影响,因此有效解决并行处理问题,是图像处理技术发展的关键。在并行处理对图像进行处理时,由于并行处理次的HOS技术开发仍不成熟,使得并行处理在对图像进行多维处理时,无法做到精确的数据测量,进而影响到图像的并行处理谱测定。
基于现阶段的图像并行处理技术基础,在伴随并行处理理论进步的同时,也会有力带动实用并行处理技术的发展,HOS技术的成熟,会使得并行处理在图像的分割,滤波及特性势识别提取等技术中得到更为深入的应用,随着图像维数研究的进一步深入,图像与信号处理会更为优化,并通过高效结合有效完善并行处理技术。通过在图像处理技术中应用并行处理,实现了HOS技术和其他信号处理理论的有机结合,使得图像处理能够应用到FPGA和DSP等技术的实际应用中,并伴随并行处理的深入研究受到更为广泛的应用,进一步提高图像处理技术的高效性和完整性。
现阶段对于并行处理的研究还有实现统一的理论能够使HOS在信号滤波、检测及获取等全过程的较为完整的技术知识体系。伴随着工业生产的要求越来越高,对于图像处理技术的要求也越来越高,传统的二维处理技术已经不能够满足图像处理的要求,图像处理会向着三维甚至是多维方向发展,图像维数的增加会对并行处理图像处理技术的数据处理量增高,进而导致数据处理时间变长,因此提高并行处理的算法速度是目前急需解决的技术难题之一。再者对于并行处理的图像处理技术,目前为止还没有完整的优化修复技术标准,这对于并行处理技术在图像处理方面的大范围推广和长久发展带来了一定程度的困扰。因此并行处理的未来研究势必会向着建立统一的优化标准为方向,提高并行处理的适用范围,为其进一步发展提供理论上的可能。现阶段并行处理在小波变形、人工神经网络分析等领域还没有很好的应用,因此研究人员必须在小波变形等领域进一步挖掘并行处理的适用内容,提高并行处理的应用效率,进一步推广并行处理在图像处理领域的适用范围。
3 结语
虽然现阶段并行处理技术取得了较大的成就,但是现阶段还没有形成统一的使用方法,因此还不能建立有效完整的评价体系,因此必须在现有的科学技术水平上,继续挖掘并行处理与其他学科和工业的内在联系,将并行处理的应用更加的完善和健全,进一步提高我国工业生产及人们生活的水平。
参考文献
[1]苏光大.图像并行处理技术[J].北京清华大学出版社,2013.
[2]汪润生.图像理解[J].长沙国防科技大学出版社,2013.
[3]朱述龙.遥感图像获取与分析[J].北京科学出版社,2013.
[4]赵忠明.基于小波提取边缘特征点的遥感图像配准技术[J].西北工业大学,2012.
- 上一篇:微观经济学之供求理论
- 下一篇:管理科学与工程方向