计算机视觉研究的目的范文

时间:2023-12-25 17:52:47

导语:如何才能写好一篇计算机视觉研究的目的,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。

计算机视觉研究的目的

篇1

关键词 计算机视觉;立体匹配;研究情况

中图分类号:TP391 文献标识码:A 文章编号:1671-7597(2014)07-0001-01

随着科学技术的快速发展,计算机技术也得到了飞速的发展。将计算机技术应用于人类的视觉系统,并辅助人们观察到一些眼睛难以看到的东西,已经逐渐成为一门大家所热捧和追逐的技术。随着人们对视觉传感器技术越来越多的探索,人们也逐渐实现了古代时想拥有千里眼的梦想。目前,人们已经把视觉传感器技术和计算机技术良好的结合在一起,并把这些技术应用到食品、建筑、医药、电子、航天航空等众多领域当中。而该项技术的快速发展,也帮助人们解决了一些日常工作当中人类视觉存在盲区的问题,保证了人们工作过程的安全。视觉技术与IT技术的完美结合使得人们的生活变得更加便利,让人们亲身体会到了IT技术给人们生活带来的便捷。

1 双目立体视觉概述

双目立体视觉又称双目视觉技术,是目前计算机视觉应用领域的重要研究内容。双目立体视觉控制系统的组成因其采用的原理和应用功能的不同,组成也都各不相同。

双目立体视觉的实现原理是基于人眼的视网膜看物体的特性,从两个不同的方向来观看同一个物体的不同角度,从而实现清楚的了解到物体的图像的目的。双目立体视觉从不同的角度获得物体的投影信息,并根据匹配的结果,获取同一个物体不同偏差位置的信息。最后在依据三角测量技术,根据已经获得的这些偏差信息从而获得这些不同点对应的距离信息,并最终获得这些实际物体的具体坐标位置信息。

视差测距技术告诉我们,要清楚的观察到一个物体的全貌,需要两个观察物从不同的方向,或者固定一个观察物,移动另外一个观察物的方式,以达到拍摄同一个物体的目的。根据同一个物体在两个观察物当中的位置偏差,从而确定该物体的三维信息。一般来说,双目立体视觉的组成包括:图像获取设备、图像预处理设备、摄像机标定设备、立体匹配设备、根据二维信息实现三维重构设备等五个重要设备。

2 双目立体视觉技术的原理

立体画又可以称之为三维立体画,是一种人们可以从三维立体图中获取二维平面图信息的技术。三维立体图表面看似毫无规则,但是假如通过一些特殊的技术或者通过合理的观察手段和观察设备,就可以看到一组秩序井然的美妙图片。

三维立体图是一组重复的二维图片有序的堆积积累而成,因此可以呈现出立体效果。人体观察物体的原理大致如下:当人类通过左右眼观察所在的空间平面的时候,这些平面图都只是一些毫无秩序的图片。而当左右眼重新聚焦或者在观察画面的时候呈现一定的层次感,则人类的左右眼观察到的一组重复案在经过人体识别以后,这些画面之间将存在一定的距离差异,从而在脑中生成立体感。

双目立体视觉技术正是基于以上的原理,从两个不同的方向去观察物体,并获得目标图像的信息,并经过一定的处理获得三维重建的物体立体信息的技术。

双目立体视觉在计算机技术中实现三维重建的大致流程

如下。

1)摄像机定位,并通过单片机计算得到要获取图像信息需要的外部的参数的大概值,并根据这些参数值设定摄像机。

2)用设定参数的摄像机拍摄目标场景的画面,并采集这些画面的二维图的信息。

3)通过计算机技术实现双目匹配,并判定采集画面中的二维图像中的不同点之间的对应关系。

4)在第三步中若得到两组二维图像的关系是稠密的时候,则生成三维视差图。如果不是则进一步采集图片信息。

5)根据得到的视差图最终实现场景的三维图形的重建。

3 双目立体匹配技术的研究难点和未来的发展方向

尽管目前有很多学者都投身到双目立体匹配技术的研究和开发当中,直至目前为止也解决了很多关于视觉理论当中存在的很多缺陷问题。但是视觉问题是一个复杂且难以解决的问题,特别是在双目立体匹配问题方面更是困难重重。立体匹配技术的难点已经成为限制将双目技术应用到计算机技术当中的重要瓶颈。

立体匹配的主要手段就是找到计算机采集到两幅和多副图片的中像素的对应关系,然后根据这些像素关系判定并生成三维重建图。但是二维图像的匹配存在层层困难,主要体现在以下几个方面。

1)由于视角的问题或者观察物体存在遮挡问题,导致采集回来的图片信息存在盲点,这样子更难找到图片的匹配区域。

2)场景中的一些深度不连续的区域大都处在场景当中的边界位置,这些位置容易出现像素不高,边界不清晰等问题,这些问题也给图像匹配带了很多困扰。

3)场景当中的低纹理的图片匹配特征和匹配关系较少,而且该位置的每个像素点极为相似。假如只是通过简单的像素相似性检测的话,会检测到很多匹配结果,而这些匹配结果当中有一大部分是错误的。这样子的结果势必会导致最终的图像匹配正确率极为低下。

从以上的分析,我们可以看出立体匹配技术存在很多技术上的难点,这些都在很大程度上限制双目立体匹配技术在计算机当中的应用发展。如何才能设计出有效、准确、快速、通用性强的立体匹配算法将会是以后双目立体匹配计算发展的重要方向。也只有通过设计出一套行之有效的立体匹配算法才能使得双目立体匹配技术在计算机视觉当中得到广泛的应用。

4 结束语

人们通过眼睛可以感受到外界事物的存在,可以清楚的了解到事物的立体信息,分辨出观察物的广度和深度,以及物体的远近。因此人类视觉感知系统就是一个双目的立体感知系统。本文讲述的计算机中的双目立体匹配技术正是基于人眼视觉观察物体的原理,通过双目立体视觉原理,对计算机采集获得两幅二维图像的信息进行分析,并结合计算机的分析,最终获得同人类眼睛一样观察到物体三维表面信息的目的。双目立体匹配技术与计算机技术的完美结合帮助人们可以更加轻易的获得物体的信息。希望在不久的将来,可以将该项技术应用于人类的视网膜当中,以帮助一些视网膜存在问题的人们,让他们重新感受到光明,感受世间的温暖。

参考文献

[1]高文,陈熙霖.计算机视觉算法与系统原理[M].北京:清华大学出版社,2002.

[2]明祖衡.双目立体视觉测距算法研究[M].北京:北京理工大学,2008.

[3]刘昌,郭立,李敬文,刘俊,杨福荣,罗锋.一种优于SAD的匹配准则及其快速算法[J].电路与系统学报,2007,12(4):137-14.

[4]陈蛟.双目立体匹配的算法研究及其多核并行化[M].南京:南京邮电大学,2012.

篇2

一、计算机视觉检测技术含义

计算机的视觉又叫做机器视觉,通过利用计算机或者是其他的一些机械设备来帮助人们视线事物到图片的过程,从而进行三维世界的感知活动。计算机的快速发展,离不开神经心理学,心理学和认知科学方面的研究和发展,计算机视觉检测技术的发展方向就是对周围的三维空间进行感知和分析。一旦能够拥有这种能力,计算机不仅能感知到周围的总体环境,而且,还能够具有对物体进行描述,识别理解和储存的能力。

二、计算机视觉检测的基本原理

要实现人工智能对视觉的计算机处理是很重要的方面在计算机视觉应用领域中如果要让我们的计算机明白图像的信息就必须经过一系列的处理过程―――数字图像处理.数字图像的处理包括5个步骤:图像预处理(去除噪声)、分割处理分割后区域、测量、图像判读、图像技术.根据抽象程度和处理方法的不同图像技术可分为三个层次:图像处理、图像分析和图像理解.这三个层次的有机结合也称为图像工程.而计算机视觉(Computer vision)则是用计算机实现人的视觉功能对客观世界三维场景的感知、识别和理解.视觉检测按其所处理的数据类型又大致可分为二值图像、灰度图像、彩色图像和深度图像的视觉检测.另外还有X射线检测、超声波检测和红外线检测。

作为新兴检测技术计算机视觉检测充分利用了计算机视觉研究成果采用像传感器来实现对被测物体的尺寸及空间位置的三维测量能较好地满足现代制造业的发展需求.与一般意义上的图像处理相比计算机视觉检测更强调精度、速度和无损性以及工业现场环境下的可靠性.例如基于三角法的主动视觉测量理具有抗干扰能力强、效率高、精度合适等优点非常适合制造业生产现场的在线、非接触产品检测及生产监控.对人类视觉感知能力的计算机模拟促进了计算机视觉技术的产生和发展制造业上获取这些信息的目的有:(1)计算出观察点到目标物体的距离;(2)得出观察点到目标物体的运动参数;(3)甚至可以判断出目标物体的内部特性;(4)推断出目标物体的表面特征有时要求形成立体视觉。

三、亚像素检测技术

随着工业检测等应用对精度要求的不断提高,像素级精度已经不能满足实际检测的要求,因此需要更高精度的边缘提取算法,即亚像素算法。亚像素级精度的算法是在经典算法的基础上发展起来的,这些算法一般需要先用经典算法找出边缘像素的位置,然后使用周围像素的灰度值作为判断的补充信息,利用插值、拟合等方法,使边缘定位于更加精确的位置。现在的亚像素提取算法很多,如重心法、概率论法、解调测量法、多项式插值法、滤波重建法、矩法等。由于这些算法的精度、抗噪声能力和运算量各不相同,他们的应用场合也是各不相同的。

边缘是图像的基本特征,所谓边缘是指图像中灰度存在阶跃或尖顶状变化的像素的集合,边缘广泛存在于物体与物体、物体与背景之间。图像测量是通过处理被测物体图像中的边缘而获得物体的几何参数的过程,边缘的定位精度直接影响最终的测量结果。因此,图像边缘提取方法是检测的基础和关键之一。在视觉测量领域中,早期使用的都是像素级边缘检测方法,例如常用的梯度算子、Lapacian算子和门式算子等。以上的边缘检测方法的精度可以达到像素级精度,即可以判断出边缘位于某个像素内,但不能确定边缘在该像素内的更精确的位置。如果一个像素对应的实际长度较大,就会产生较大的误差,传统的整像素边缘检测方法就不再适用。

四、计算机视觉检测技术在机加工零件检测中的应用要素与过程

(一)曲阵CCD相机

面阵CCD是本项目图像采集系统中的主要设备之一,其主要功能是采集实验图像。该CCD相机主要由CCD感光芯片、驱动电路、信号处理路、电子接口电路和光学机械接口等构成。

(二)工业定焦镜头

在图像测量系统中,镜头的主要作用是将目标聚焦在图像传感器的光敏面上。镜头的质量直接影响到图像测量系统的整体性能,合理选择并安装光学镜头是图像测量系统设计的重要环节。

(三)数字图像采集卡

随着数字信号处理技术和嵌入式处理器技术在图像采集卡中的应用,使得图像采集卡向高速度、多功能和模块化方向不断发展。这类图像采集卡不仅具有高速图像采集功能,同时还具备部分图像处理功能,因此又可以称之为图像处理卡。

(四)标定板

为提高测量精度,需要进行摄像机标定。标定过程中,采用NANO公司的CBC75mm}.0型高精度标定板,外形尺寸为75mmx75mmx3.0mm,图形为棋盘格,其尺寸为2.0mmx2.0mm,精度为1级,即图形尺寸精度与图形位置精度为。

(五)背光源

背光方式只显示不透明物体的轮廓,所以这种方式用于被测物需要的信息可以从其轮廓得到的场合。因此,为精确提取轴的图像中的边缘特征,需采用背光源。为使图像边缘更锐利,光源颜色选择红色。

五、结语

随着计算机技术和光电技术的发展,已经出现了一种新的检测技术―基于计算机视觉的检测技术,利用CCD摄像机作为图像传感器,综合运用图像处理等技术进行非接触测量的方法,被广泛地应用于零件尺寸的精密测量中。本文以面阵CCD为传感器,研究了零件在线测量的方法,实现了零件尺寸的图像边缘亚像素定位测量,对面阵CCD在高精度测量方面的应用作了进一步的探索和研究,为面阵CCD在复杂零件尺寸高精度测量的实现打下了基础。

【参考文献】

篇3

关键词: 计算机 视觉注意机制 计算机视觉注意模型

1.引言

随着信息技术的不断发展,数据处理量剧增,以及用户不断扩大的个性化需求,对计算机信息处理能力提出了越来越高的要求。如何在场景中快速准确地找到与任务相关的局部信息,即物体选择与识别,已经成为计算机信息处理领域的一个研究热点。随着在心理学领域注意机制研究的不断发展,将注意机制引入信息处理领域来解决物体识别问题,已经不再是纸上谈兵。

人类视觉系统进行视觉信息处理时,总是迅速选择少数几个显著对象进行优先处理,忽略或舍弃其他的非显著对象。进入人类视野的海量信息,通过注意选择机制进行筛选,就能使我们有选择地分配有限的视觉处理资源,保证视觉信息处理的效率,这就是视觉选择注意机制的原理。依据人类视觉选择注意的基本原理,开发能够进行智能图像信息处理的计算机系统,就成为一大任务。我们研究的主要方向是使计算机处理对象时,能够具备与人类相似的视觉选择注意能力。

2.视觉注意机制

研究视觉注意机制是个多学科交叉的问题,目前多个领域的研究人员都取得了研究成果,并且对视觉注意的理论都形成了一些共识。目前普遍认为注意既可以是按自底向上(自下而上)的图像数据驱动的,也可以是安自顶向下(自上而下)的任务驱动的。其中,自下而上的研究主要来自图像中物体数据本身的显著性。例如,在视觉搜索实验中,显著的物体会自动跳出,如图1中的圆点通过特征对比,以形状跳出的形式获得注意。自上而下的引导主要来自当前的视觉任务,以及场景的快速认证结果,即我们可以“故意”去注意任何一个“不起眼”的物体,如我们可以在图书馆浩如烟海的藏书中,找到自己感兴趣的那本书。

研究视觉注意机制的重要方法是研究眼睛在搜索目标时的表现。显著图中的各目标在竞争中吸引注意点,注意点在各个注意目标间转移。根据注意点转移时是否伴随眼动,视觉注意也分为隐式注意和显式注意。隐式注意的中央凹不会随着注意点的转移而移动,而显式注意的中央凹随每次注意点的转移而运动。

对视觉注意机制的研究为计算机视觉的发展提供了可能。计算机视觉借鉴人类视觉的注意机制,建立视觉注意的计算模型。通过“注意点”的选择与转移,实现对复杂场景中任务的搜索与定位,最终来实现实时信息的响应处理。在计算机视觉的研究中,显式注意应用较多。

3.计算机视觉注意模型

从人的角度来看,人类视觉系统通过视觉,选择注意在复杂的场景中迅速将注意力集中在少数几个显著的视觉对象上。从场景的角度来看,场景中的某些内容比其他内容更能引起观察者的注意,我们称之为视觉显著性,两者其实是从不同的角度对视觉选择注意过程的描述。

我们把引起注意的场景内容定义为注意焦点FOA(Focus of Attention)。Treisman的特征整合理论中将视觉信息处理过程划分为前注意和注意两个阶段,各种视觉特征在前注意阶段被以并行的方式提取出来,并在注意阶段以串行方式整合为视觉客体,即注意的特征和客体是通过不同方式进行的。在注意焦点的选择和转移上,Koch[2]进行了深入的研究,他提出注意焦点FOA的变化具有四个特征,即单焦点性:同一时刻只能存在一个FOA;缩放性:FOA的空间范围可以扩大或者缩小;焦点转移性:FOA能够由一个位置向另一个位置转移;邻近优先性:FOA转移时倾向于选择与当前注视内容接近的位置。同时注意焦点具有抑制返回的特点,即FOA转移时抑制返回最近被选择过的注视区域。在此基础上,视觉注意的研究人员提出了多种视觉注意模型。

4.视觉注意模型的研究现状

人类的视觉注意过程包括两个方面:一方面是对自下而上的初级视觉特征的加工,另一方面是由自上而下的任务的指导,两方面结合,共同完成了视觉的选择性注意。与此对应,当前的计算机视觉注意研究也分为这两个方面。

4.1自下向上的数据驱动注意模型研究及分析

在没有先验任务指导的情况下,视觉注意的目标选择主要是由场景中自下而上的数据驱动的,目标是否被关注,由它的显著性决定。现在,自下而上的注意研究主要基于Treisman的特征整合理论和Koch&Ullman的显著性模型,Itti、satoh等人均在此基础上提出了自己的研究模型,并做了一些模型的改进研究。自下而上的研究方法通过对输入图像提取颜色、朝向、亮度等方面的基本视觉特征的研究,形成各个特征对应的显著图。另外,一些研究者采用基于局部或全局对比度的方法,来得到图中每个像素的显著性,进而得到显著图。

现有的自下而上的视觉注意计算模型中,Itti的显著图模型(简称Itti模型)最具代表性。该模型主要包含3个模块:特征提取、显著图生成和注意焦点转移。模型通过初级特征的提取,将多种特征、多种尺度的视觉空间通过中央―周边算子得到的各个特征的显著性图合成一幅显著图。显著图中的各个目标通过胜者为王的竞争机制,选出唯一的注意目标,其中注意焦点的转移用的是禁止返回机制。但该模型也有一些缺点,如显著区与目标区域有偏差、计算量较大、运行时间较长、动态场景中实时处理不平等。

在动态场景之中,由于Itti模型很难满足实时性的要求,科研工作者们正在努力研究动态场景的特性,并建立相应的动态模型。如Wolfe[1]指出,影响前注意的特征包括颜色、方向、曲率、尺寸、运动、深度特征、微调支距、光泽、形状,等等,其中又以运动特征最为敏感。而You等采用了一种空间域特征和时间域特征相结合的视觉注意模型,该模型假设当场景中存在全局运动时,视觉注意对象将极少做运动。然而,许多真实的场景并不能满足这个假设,限制了模型的适用范围。Hang等人提出了一种运动图的计算方法,并把运动图作为特征之一,与颜色、亮度、方向等特征结合。这些研究关注了运动特征对视觉的影响,但是均存在一定的局限性,对于复杂的运动场景的注意焦点计算很难取得良好的效果。

我国研究者也在Itti注意模型的基础上研究了适合动态场景中的注意模型,形成了一些理论成果。如曾志宏[2]等人提出注意焦点计算模型,郑雅羽[3]等提出基于时空特征融合的视觉注意计算模型。这些模型都能较好地提取动态场景下的视觉目标。

4.2自上而下的任务驱动的注意模型研究及分析

自上而下的注意即任务驱动的注意,通过目标和任务的抽象知识,在一定程度上指导注意焦点的选择。在自上而下注意模型的研究方面,Laar(1997)提出了一个用于隐式视觉注意的模型,该模型通过任务学习,将注意集中于重要的特征。Rabak[4]提出了基于注意机制的视觉感知识别模型,该模型在定义目标显著性时,通过语义分析对其他三个自下向上的视觉控制参数项进行线性组合。Salah将可观测马尔科夫模型引入到模拟任务驱动的注意模型研究中,并在数字识别和人脸识别的实验中取得了很好的效果。Itti提出以调节心理阈值函数的形式来控制视觉感知。

目前对自下而上的数据驱动方面的研究较多,而对自下而上的任务驱动方面研究较少。因为任务驱动的注意与人的主观意识有关,同时受到场景的全局特征影响。自上而下的注意涉及记忆、控制等多个模块的分工协作,其过程非常复杂。

5.计算机视觉注意模型研究的趋势

自底向上和自顶向下的加工是两种方向不同的信息处理机制,两者的结合形成了统一的视知觉系统。人类的视觉信息处理系统只有遵循这样的方法,才能有效地实现视觉选择注意的目的。

实践证明,把自底向上和自顶向下的研究相分离的研究方法并不能很好地解决计算机的视觉注意过程。要想使计算机能够准确模拟人类的视觉注意过程,实现主动的视觉选择注意的目的,采用两种研究方法相结合的形式势在必行。自底向上的视觉注意计算往往离不开与自顶向下的有机结合,实现二者的优势互补是以后计算机视觉注意研究的一个趋势。

参考文献:

[1]Wolf J M,Cave K R.Deploying visual attention:the guided search model.In:Troscianko T,Blake A,eds.AI and the Eye.Chichester,UK:Wiley press,1990.

[2]曾志宏,周昌乐,林坤辉,曲延云,陈嘉威.目标跟踪的视觉注意计算模型[J].计算机工程,2008,(23).

[3]郑雅羽,田翔,陈耀武.基于时空特征融合的视觉注意模型[J].吉林大学学报,2009,(11).

[4]Rabak I A,Gusakova V I,Golovan A V,et al.A model of attention-guided vision perception and recognition.Vision Research,1998,38.

篇4

关键词:计算机;交通监管系统;视觉

中图分类号:TP277

近年来,道路交通安全问题因公路交通事业的快速发展而受到越来多关注。据2002年世界银行统计,全球平均每年死于道路交通事故高达117万人。而在中国,据2008年公安部交通管理局公布的数据显示,全国道路交通事故多达265204起,死亡人数为73484人。

全国道路交通事故防御工作随公路里程、机动车保有量、道路交通流量、驾驶人数的增加成递增趋势。而通过必要的技术手段构建交通安全保障机制,降低交通事故是重中之重。若要好的为基础的交通违规行为检测技术的不断更新,市场上已出现了自动检测与记录的商业化产品,能实时记录出闯红灯、违规超车、违规停车、超速、逆行等违规行为。然而,我国高速交通监控体系仍比较落后,大多在交叉路口设置电子警察系统以此检测车辆闯红灯的违规行为。交通管理部门并不能对出现违规行为的车辆进行及时的交通管制和处理,概括来说管理与检测仍处于管理误区与盲目状态。针对该现象,文本研究了基于计算机的交通监管系统设计与实现。

1 智能交通管理系统简介

ITS系统,该系统综合先进的现代计算机网络技术、信息电子通讯技术、现代信息技术以及自动控制技术等,并将其在整个交通运输管理体系进行有效的运用,为此建立起一种实时、有效、准确、范围广的全方位发挥作用的交通运输控制体系和综合管理系统。近几年人流、车流随着城市发展而猛增,交通职能部门对更加智能的交通管理系统的需求越来越急迫。所以,ITS成为21世纪地面交通管理、运输科技、运营的主要研究方向,带领着交通运输一场伟大的变革。北美、西欧、日本自上世纪80年代末就开始竞相发展智能运输系统,并制定相应的开发计划加以实施,而发展中国家也开始对ITS系统的全面研究与开发。

2 认识基于计算机视觉的智能交通监控系统

2.1 计算机视觉技术

所谓计算机视觉,理解为使用可替代人眼的高清摄影机设备或其他现代高清电子影像摄录装备进行观察,实现对目标的追踪定位、图像识别、模拟数据测量等,并对采集的视觉数据信息送达远端计算机服务器,通过计算机服务器的信号图形图像处理技术对视频数据信息进行进一步加工,实现三维重现现实情景的计算机观察呈现技术。

2.2 智能交通监测系统

通过使用现有的、先进的计算机智能化、视觉化、信息化科技对国内各大路况交通运输实施监测,为工作于交通运输人员呈现数据信息的自动化采集、分析、处理等的智能化服务,且该交通管理系统存在一定自作能力和指挥能力,即为智能交通系统。随着道路、车辆的飞速发展,人民生活水平及国民生产总值的不断提高,智能交通系统,在国内外受到越来越多的青睐。近几年,各道路关键路段、路口随着道路监控机制的普遍建立,也都基本完成了视频监控。

2.3 基于计算机视觉的智能交通监控机制

根据前面2.1对计算机视觉技术和2.2对智能化交通监控系统概念的解析与理解,可总结出以计算机视觉为基础的智能化交通监控机制,其是通过现代高端计算机对视觉信息收集、提取、处理、分析等技术,实现对城市道路交通信息的实时监控、视频数据的收集、信息分析处理,并对城市交通状况使用智能交通机制状况,并通过视频影像引导车辆行驶,以此降低或避免各种各样交通事故发生的智能化交通监控机制。

3 构建以计算机视觉为基础的智能交通监控机制及配套措施

3.1 基于计算机视觉的智能交通监控机制的构建

监控指挥系统、实时交通信息收集系统、高质量信息传输系统是基于计算机视觉的智能交通监控的三大系统。实时交通信息收集系统由多套信息收集装置组成,通过这些信息采集装置实时监控不同位置交通现状。实时交通信息收集系统不仅能进行路段监控与实时交通信息采集的工作,还能将收集数据信息,经由高质量信息传输系统实施输送,或在服务器中存储已处理的信息;一个中央数据库与一个中央服务器是高质量信息存储传输系统核心部分,其中中央数据库对获取到的实时交通路况信息进行存储。而为了便于工作者能通过界面对中央数据库实施提取、查询、查看等操作,因此该界面就由中央服务器来提供,此外该服务器还能将已处理的实时路况数据通过高质量的传输系统输送到监控指挥机制,达到对各路段的交通进行管制、部署及指挥的目的。

3.2 专业技术人员的储备

以计算机视觉技术为基础的智能交通监控机制是一个庞大的系统,具有突出点的优点,该系统集自动化、信息化、智能化为一体,只有专业的技术人才才能使该系统高效工作,因此开展培训储备相关技术人员至关重要。实时交通信息借助于先进的高清装置的正常采集工作,所以储备一批针对高清装置安装、检测、调试及故障修复的技术人员极为重要。现代基于计算机视觉的智能交通监控机制虽然本身具有一定的图形图像分析及处理能力,然而有些工作人是永远被替代的,所以培养储备一批专业的图形图像处理技术人员也是重要的。储备服务器维护技术工,每天以计算机视觉技术为基础的智能交通监控机制都会获取大量的监控信息数据,然而只有大型的服务器才能存储这些数据,可想而知一旦服务器瘫痪就会引发整个机制的崩溃,造成严重的后果,因此专业服务器维护工作者的储备与培养也尤为重要。基于计算机视觉技术的智能交通监控机制并不能取代交通指挥员,其仅是用来采集实时交通信息的系统,仅为了协助交通指挥员监管及疏导城市交通,因此要求储备一批高素质、高质量的交通指挥员也极为必要。

3.3 交通知识的宣传

大城市的交通问题,并不是依靠单纯的开发先进的计算机视觉智能交通监控系统就能处理解决,也不是单单要求市政建设增加公交数量、增铺几条公路或增开通几条地铁就能解决的,以上这些仅是辅助方法。关键在于开展交通知识的宣传与教育工作,强化驾驶员的素质,倡导不酒驾、不逆行、不超速、限号行驶等,自觉遵守道路交通规则,提倡公交地铁出行,减少私家车辆行驶,齐心协力共同打造和谐的交通环境。

3.4 获取政府支持

市政建设的主要问题之一即是交通问题,政府的支持是万万不可缺失的。由于构建以计算机视觉技术为基础的智能交通管制机制,涉及面广,包括道路勘测、先进装置的引进、专业技术人员的储备、装备组织安装与调试、后期维护等等多方面,这些都需要投入大量的人力、财力、物力,而对于任何一个单位、部门或几个市政部门来说都无法独自承担,由此可知政府的大力支持是必不可少的,以政府的力量为媒介,将各部门进行协调、协作,只有这样才能构建成较健全的交通监控体系。

4 结束语

道路交通杂、乱是国内城市交通最突出的特点之一,对于我国的交通事业来说进行行人识别势在必行。而我国对于行人识别的研究仍处于起步阶段,还较落后。且基于计算机的交通监管系统设计较为复杂,涵盖点较多,因此本文仅对设计进行简要介绍,希望达到抛砖引玉的效果。

参考文献:

[1]康晓丽.无线网络技术在交通管理中的应用[J].科技情报开发与经济,2011(21).

[2]钟振,赖顺桥,肖熠琳,张沛强.RFID车辆智能管理系统[J].机电工程技术,2011(02).

[3]文军.视频监控系统软件现状与技术分析[J].金卡工程,2007(08).

[4]张玉风.简述视频监控系统的发展历程[J].铁道通信信号工程技术,2006(06).

[5]马伏花,朱青.基于射频识别技术的车辆自动识别系统的实现[J].中国仪器仪表,2006(11).

篇5

【关键词】株高 HALCON 双目视觉 误差修正

1 引言

计算机视觉技术是近几年来发展较快的信息处理技术,随着图像处理技术的专业化、计算机硬件成本的降低和速度的提高,计算机视觉的应用已变得越来越广泛,其中不乏在农业中的应用。

株高是植物生长指标的重要参数,是一个物种争夺阳光的能力的主要决定因素[1]。对于作物来讲,株高参数是作物产量预估不可或缺的参数。

然而对于具体的利用机器视觉方法直接测量株高的研究还是比较少的,本文就是利用HALCON软件,采用双目计算机视觉方法来实现株高的测量。

2 双目视觉原理

双目视觉的基本原理是从两个视点观察同一景物,获取不同视角下的两幅图像,然后根据三角测量原理计算不同图像对应像素间的视差(disparity ),获取景物的三维信息,从而实现场景三维重构。

根据两个摄像机位姿的不同,双目视觉有多种模式,常用的有双目横向模式,双目横向会聚模式以及双目纵向模式(也称双目轴向模式)。

为了增加测量精度,基线一般不能太小,但基线长度也不可太长,否则,由于物体各部分相互遮挡,两个摄像机可能不能同时观察到目标点。

图1是会聚双目成像中的视差原理图。图中给出两镜头连线所在平面(XZ平面),两镜头中心间的距离(即基线)是B,两光轴在XZ平面相交于(0,0,Z)点,交角为(未知)。现在来看如果已知像平面坐标点(x1, y1)和(x2, y2 ),如何求取世界点W的坐标(X,Y,Z)。

根据相似三角形的关系可以很明显得出: (2.1)

(2.2)

(2.3)

其中r为从(任一)镜头中心到两系统会聚点的距离(未知)。将式(2.2)和(2.3)联立, 可得:

(2.4)

上式把物体和像平面的距离Z与视差d直接联系起来,若想求解式(2.4),除视差d外,还需要知道x1和x2本身。另外,由图1可以得到:

(2.5)

代入式(2.2)或(2.3)可得:

代入式(2.2)或(2.3)可得:

(2.6)

现实测量中,两相机的光轴与世界坐标Z轴的夹角不可能相等,不过即便如此,也只会引入几个待确定的三角函数,而这些三角函数在相机标定时即可确定。

3 测量过程

实现该测量过程包括如下几个功能模块:图像获取、摄像机标定、特征提取、立体匹配与三维信息恢复、后处理。本实验采用是分比率为960×720的双摄像头。被测区域大小约为56cm×42cm,所以采用的标定板应为被测区域1/3大小的HALCON专用的200mm标定板。标定数为24×2张图片。利用HALCON自带的标定助手,可以轻松实现单目标定。

双目标定时,需要有15张以上左右相机相同时刻拍摄的标定板的图片。再利用for循环,find_caltab函数,find_marks_and_pose函数以及binocular_calibration函数,可以实现双目标定。将标定过程中,获得的摄像机的内参以及两个摄像机相对位置关系作参数传递给函数gen_binocular_rectification_map,可以很好地实现双目视觉校正的目的,得到两幅校正后的图像,还能得到校正后虚拟立体视觉系统中两个摄像机的内参和外参。

不同种类的植物其株高定义不同,测量方式也不尽相同。本文研究的株高只针对直立型的,是指从植株根部露出土壤部分到植株最高处的株高。

先利用gen_binocular_rectification_map函数为map_image函数提供控制参数,再通过map_image函数对采集到的图像做校正处理,利用threshold函数,fill_up_shape函数以及select等函数找出校正后图像中植株的最低和最高点,利用intersect_lines_of_sight函数,可获得植株最低点和最高点的真实三维坐标,最后通过几何运算得到双目测量结果。

我们在图像采集时就应该考虑到,摄像头应该稍微带一点俯拍的角度,保证左右两幅图像上最高处均为现实坐标中的最高处。切忌俯拍角度不可太大,否则由于拍摄角度而引起的像差会很大,对结果将会有很大的影响。

经过以上几步骤得到的三维坐标,常因各种原因而存在一定的误差,需要进行误差校正。我们对已知高度的对象进行了测量,得出结果如表1:

通过上述数据得出的修正关系如下:

y=-0.0002x2+1.0699x (3.1)

其相关系数R2=0.9993

4 实验结果

我们对三种植物进行了测量得出的结果如下:

从测量结果中可以看出,修正后相对误差控制在2%之内,可以接受。误差引入的原因可能如下:

1、标定板的选择决定了标定精度。一定要选用高精度的标定板,且标定板的大小应约为测量范围1/3大小。

2、相机是图像获取的根本,高质量的图像离不开高分辨率相机,但是高分比率,高解析度的相机又会带来成本上的提升。本文中,对于390.0mm左右的对象,1个像素的误差可以带入约0.4mm的实际误差。

3、本文所采用的算法只能针对比较理想,比较直的植株,算法的不断优化,才能不断减少误差,提高精度。

5 结语

本文介绍了一种基于HALCON的,利用双目视觉测量株高的方法。对于直立型植物,通过对立体匹配与三维信息恢复结果的误差修正,其株高测量相对误差不超过2%,方法具有一定的可借鉴性。

参考文献

[1]章毓晋.计算机视觉教程 [M].北京: 人民邮电出版社,2011.

作者简介

郝慧鹏(1988-),男,内蒙古乌兰察布人,硕士研究生,主要研究方向为计算机视觉技术在农作物检测上的应用。

指导老师

田跃(1956-),男,北京人,北京科技大学数理学院物理系教授,北京市弱磁检测及应用工程技术研究中心副主任。

作者单位

篇6

关键词:目标跟踪技术;意义;问题;解决方法

中图分类号:TP18 文献标识码:A 文章编号:1009-3044(2015)02-0171-01

1.目标跟踪研究技术分类

1.1图像序列中目标跟踪技术

在图像中,根据点与点之间的关系,可以通过相邻两幅图像的点集中用以实现跟踪目标。同样的,根据线在目标跟踪中的使用,可以更加清晰的分解出图像的轮廓信息用以描述目标图像。更进一步,可以将面应用于目标跟踪,了解整个区域的外观信息,在经过后期的优化和分类处理实现目标跟踪。

在图像识别中,可以根据图像本身的空间位置相互依赖的关系以及图像块与图像块之间的关系在建立模型和构造置信度图的时候,融合空间的上下文信息。使得建立的目标跟踪的模型更加具有科学的根据,同时置信度图更加精确,更利于研究目标跟踪。

1.2视频序列中目标跟踪技术

目标跟踪可以通过对视频序列中正在运动的目标进行分析检测、提取数据、更进一步的进行识别和跟踪。这样的过程中,可以获得目标运动的参数,例如移动速度、加速度、运动的轨迹等,再将所得的结果进行下一步的分析处理,以此实现对目标的理解以完成任务跟踪的目的。

对于目标跟踪和测量可以分为三个阶段。首先,有目标的检测和特征提取,在这两个阶段中,需要一定的理论知识和灵活的应变能力,可以根据场合的不同进行不同的设计。第三个阶段就是目标的跟踪,简单来说可以理解为目标初始状态和特征提取从而得到目标视觉特征,以此为基础,进行时间和空间相结合对目标的状态进行估计。因此,一个良好的跟踪系统必须能满足顾客准确、实时、可靠的要求。“准确”顾名思义,就是要提高目标跟踪的精准度,最低的要求即要可以跟踪出目标的大致位置,高的要求下必须给出目标的准确方位。“实时”是指的跟踪目标信息的更新速度,数据的输出速度必须要在物体的实际运动速度内,满足控制系统的动态指标要求。“可靠”则是要求目标跟踪结果的真实可靠性,过程必须保证稳定,即使是在跟踪失败的情况下,也要求具有良好的恢复能力。只有满足以上三点,才能达到很好的综合性能。

2 目标跟踪研究技术意义

2.1 在民用领域的意义

在民用领域中,目标跟踪技术研究的新兴方向是拥有核心技术的智能化视频监控。智能化视频监控是高层计算机视觉技术,简单描述则是摄像机进行前期采样,通过视频序列图,对其中的信息进行更进一步的分析和理解,从而实现视频监控系统的智能化。例如有的视频监控中可以智能识别场景内人的行为和语言对话。从而可以甄别出危险的人员自动报警。在交通管理中,也可以通过智能检测实现对车辆的管理,实时监控道路车流量和对异常的车辆进行调查,可以很大程度上减少交通事故的发生,和更快速的进行事后处理。

2.2在军事领域的意义

在军事领域中,目标跟踪技术对于增强国防有很大的意义。视频监控可以及时掌握战争中的环境和更快速地对敌方的目标进行搜索和跟踪。对于环境的掌握和检测有利于寻找和提取目标和场景、还有摄像机的机位等信息来进行实时的反馈控制,可以了解敌方动态在战争中处于主导地位。还可以将目标跟踪技术和机器人技术结合,研究机器人视觉导航系统,安装在机器人体内的摄像机可以实现实时环境检测,获取更为详细的环境信息。同时,目标跟踪中的智能视频监控也有利于发现边防的不利状况和嫌疑人员,更大程度上保护我国军事机密。

3 目标跟踪研究技术应用

3.1在道路车辆监控上的应用

在现实生活中,可以利用目标跟踪技术实时监控道路上的车辆,在移动过程中,车辆在视窗中的大小和形状会发生特定的变化。例如我们可以选取一组在实际环境中拍摄的照片进行研究,车辆由近及远的移动过程中,车辆目标区域的形状会慢慢变小,目标形状变化不大会取得比较成功的跟踪效果。但是存在缺陷的是,目标变小时,跟踪的准确性也随之变小,有时所反应的结果已经偏离了目标所在的实际位置。导致目标跟踪出现问题,甚至错误的跟踪了其他目标。因此,在道路中车辆的监控方面,还要进一步改正,加强精准度,才能让科技更好为交通事业做出贡献。

3.2在矿井安全监控中的应用

在生活中,井下工作是安全风险最大的工作之一。可以利用目标跟踪技术,对井下危险区域运动目标进行检测和跟踪,在这样的检测下,可以提前得到风险预测,提前预警可以有效防止危险事故的发生。利用数学领域的利用背景建立模型和利用背景差法在线有效的调节速率,这种方法可以应对光线的变化和突变的环境下对移动目标的监控,利用目标跟踪技术在发生突发状况时可以准确的定位和实时的跟踪目标。可以提高突发事故的存活率,给矿工们的生命多一层保障。

3.3在社会生活中的作用

在社会工作中,未来发展的趋势电子化越来越普及于生活的任何角落,与现有阶段的键盘和鼠标表达思想不同,未来的人和计算机的交互影响应该会更加方便,科学家希望计算机能够像一个人一样善解人意,这就需要计算机能够读懂人类的语言、表情、手势、动作等。利用目标跟踪技术,实现视频的智能化,计算机可以通过采集人们的动作图像等进行分析,更理解场景中的人和事。例如在医疗领域,可以利用这个智能的电脑来监护生病的儿童和老人,他可以很快的明白病人的需求,所以可以更好的照顾从而促进医疗事业的革新;在教育领域中,利用视频智能的分析技术,比普通老师更快的了解学生对于知识的掌握了解情况,判断学生的学习兴趣,可以因材施教,更好更快的教好学生;在游戏时,智能的计算机能更快地了解游戏者的意图和兴趣,分析出更适合游戏者的游戏,让游戏者开心的融入氛围体验娱乐生活的乐趣。

参考文献:

[1] 丁业兵,王年,唐俊,等.基于颜色和边缘特征CAM Shift目标跟踪算法[J].华东理工大学学报:自然科学版,2012,38(l):69-74.

篇7

计算机特效与电影的结合:形式与内容的统一

关于影视中形式与内容的关系已不是一个新的话题,形式是内容,内容也是形式,任何元素都不能单独完成一个作品,内容和形式只有有机地结合在一起。影片才具有意义。同样。从形式和内容的关系角度来讲,计算机特效是形式,也是内容。在内容不足以支撑起计算机特效的表现力时。影片会因为形式大于内容而显得空洞无力。如全CGI制作的《最终幻想》。画面唯美,但故事内容晦涩难懂,无法给人留下印象,这让人不禁思考其失败的原因。比较《最终幻想》和《骇客帝国》,这两部影片同属于科幻片类型,讲述的都是未来世界毁灭和拯救的故事。《骇客帝国》中解释未来世界毁灭原因的立足点是计算机科技和网络的过分发展给人类带来的危机,在《骇客帝国》中叙事的形式是虚拟和现实的结合。计算机特效镜头的表达也同样具有统一的主题思想。描述了关于人类本体一联想一时空关系。具有哲学的意味,其特效形式极具暗示感,它用视觉启发观众联想,最终用视觉形式指引观众对影片内容进行思索。其内容和形式的选择相互支撑。因此,计算机技术在提升电影表现形式的同时,也给电影艺术的内容提升提出了更高的要求,即使是表达幻想也应来源于真实可信的现实生活基础,而形式的设计和选择要能切合所表达的内容。

当我们在观看《泰坦尼克号》的时候,会被ROSE和JACK的爱情深深打动,被真实的海难震惊。而不会想到这些爱情和灾难都是用计算机特效来完成的。所以,特效镜头的形式选择和表现的目的,是要恰如其分地表现影片的内容。以2007年的高科技特效影片《变形金刚》为例,华丽炫目的3D特效给人的视觉感并不仅仅是为了炫耀特效而做特效,透析电影中计算机虚拟摄像机摄影和剪辑。如MTV般风格。运用得行云流水、全方位、角度多变;场面调度,绚烂的爆炸场面和惊心动魄的机器人大战,真实特效场面和CGI的机器人域面的完美结合,让CGI角色的动作场面更炫更逼真。在视觉之外,再配上人类情感和友谊、爱情等感人要素的线索并穿插其中,让冰冷的高科技机器人故事剧情变得生动丰富。这些相互联系的元素组合在一起,帮助影片在各部分之间建立关系。变形金刚科技感极强的造型,并没有给我们带来距离感。仿佛它们就是我们身边的朋友。不论是精彩写实的金刚变形还是行云流水的虚拟摄影机运动,给人以轻松富有人情味的生活感,视觉设计元素是为故事和情节服务的。所以影片的最终视觉效果风格和故事内容建立有机联系,达到形式节奏情感的统一。

计算机视觉特效镜头:由“写实”到“表现”的变迁

在计算机特效视觉领域,探索CGI视觉设计的风格,这是近些年来国际上在计算机影像技术和岂术方面的趋势。CG的绘制技术可以分为两类:真实感绘制和非真实感绘制。真实感绘制技术已经有了很长的历史,而非真实感绘制技术则是国际上近几年在计算机视觉领域新兴的一个研究课题。非真实感绘制以真实感绘制为基础,它可以使绘制的图像具有卡通效果以及某种艺术性效果。由真实到非真实感的变迁。也是计算机视觉艺术从写实进化到抽象的技术性基础。随着计算机硬件和算法的不断发展,到上世纪90年代中期,人们已能真实地模拟各种自然界的客观现象和想象中的特殊效果了。当出现了《泰坦尼克号》、《星球大战》、《骇客帝国》这样的影片。真实感图像与电影胶片摄制出的图像得到了完美的结合。从这个意义上讲。真实感图像达到了它所追求的“像照片一样真实”的效果,技术已经不是太大的问题。

技术的实现水平使得计算机影像领域开始对艺术风格的全面探索。回顾这几年在国际上获奖的优秀CG作品,最引人注目的特征是:它们都具有强烈而独特的视觉艺术风格。从Siggraph2006的最佳动画短片“One rat short”,到米勒同名漫画的“罪恶之城”(SIN CITY),以及从一亮相就备受关注的黑白动画“复活”,这些短片的视觉影像风格的探索给人启迪。获得2006年法国国际动画节水晶奖的“复活”,整部影片均采用黑白创作,渲染也是只用黑白两个值来表现画面。展现一种具有视觉冲击力的版画风格特征。还有2007年Siggraph的最佳作品“方舟”。从角色、场景、道具造型到色彩都极具特色。充满梦境般的油画视觉感。“方舟”里的人物造型是极为与众不同的,色彩是印象的、表现主义的,通过视觉把观众对影片的体验和思考引向遥远的圣经故事,同时又是指向未来的思索。

电影风格化的表现:计算机特效的超现实化

从制作的角度分析,电影《斯巴达300》可以说是一部用计算机做出来的影片。计算机特效的大量介入,给视觉特效提供了一场全面的风格化探索的尝试,影片共有1500个镜头。几乎所有的镜头都运用了电脑特效。影片把电影的“拍摄”和“绘画性”醒目地结合在一起,它利用了计算机特效后期制作中层的概念。并把这种层的技术,从艺术的角度发挥到极致,使影片整体的艺术效果像一幅流动的油画。视觉特效的风格应该和影片的整体氛围一致,特效镜头要为镜头后表达的思想服务,特效的表达要和情节、影片故事的设计整体构架一致,只有这样,特效和影片的内涵才能形神兼备。以《斯巴达300》为例,影片既保持了米勒漫画的结构细节、浓郁厚重的色调和绘画艺术的众多特点。又借助计算机特效创造出与众不同的绘画效果。

“超现实主义电影所追求的最高美学境界,就是把艺术创造视为一种偶然的启示或悲剧式的预言。”在影片中,特效部分场景设计的造型简洁、夸张。给原本平凡的现实事物赋予了新的面貌。《斯巴达300》影片中所有的场景都在计算机特效中完成,大量的特效工作分散到全世界的十个工作室。为了保证影片的视觉艺术效果的统一,影片特效采用了超现实风格化手法来处理场景设计。真实感是电影特效追求的重要原则,《斯巴达300》却给予画面一种变形的突破。刻意追求一种超现实的奇幻风格。所有的画面都经过Photoshop的滤镜处理,用一个非常细节化的处理来体现这一艺术化的变形,例如,影片中的斯巴达战士眼睛里的光芒都经过了绘画式的处理,这一点,是视觉特效设计的创新,在以往的电影中未曾这样统一地处理过。所以。这样的视觉影像使观者产生了一种梦幻般的超现实感,正是这种风格化的处理方式使影片整体的形式达到统一。

实拍镜头趋向素材化:电影走向“合成电影”

篇8

关键词:太阳跟踪; ARM微控制器; 计算机视觉; CMOS图像传感器

中图分类号:TN91934; TP36文献标识码:A文章编号:1004373X(2012)04007104

Sun-tracking system based on ARM embedded image processing platform

CHEN Lijuan, ZHOU Xin

(Nanjing University of Aeronautics and Astronautics, Nanjing 210016, China)

Abstract: Based on computer vision principle, the realtime tracking of sun was realized by taking ARM microcontroller as the core to construct the embedded image processing platform. The system collects images of sun through CMOS imaging sensor, and computes the sun angles relative to the tracking platform by a microcontroller. With the computed sun angles information, the system controls the turntable through a serial port to make the solar panel perpendicular to the sun radiations. Meanwhile, another tracking mode based on sun trajectory is integrated in the tracking strategy to insure the system reliability. The teat result indicates that the system can reduce the system energy consumption and effectively track sun.

Keywords: suntracking; ARM microcontroller; computer vision; CMOS image sensor

收稿日期:20110813

基金项目:国家自然科学基金资助项目(61102138);南京航空航天大学基本科研业务费专项科研资助项目(V1090031)0引言

随着社会的发展和进步,环保节能已经成为人类可持续发展的必要条件。目前,再生能源的开发和利用越来越受到人们的关注。太阳能由于其普遍、无害、无限、长久等特点,成为最绿色、最理想、最可靠的替代能源[1]。但太阳能同时存在分散,不稳定,效率低等特点,太阳能光伏系统为解决这一问题提供了条件[23]。

就目前的太阳能光伏系统而言,如何最大限度提高太阳能的转换率,仍是国内外的研究热点。有研究表明,和始终朝南的固定表面相比,与太阳辐射方向始终保持垂直的表面对太阳能的利用率提高约33%[4]。太阳跟踪装置可以保证太阳辐射方向始终垂直于太阳能电池板平面,使接收到的太阳辐射大大增加,提高了太阳能的接受率与利用率,因而得到广泛的应用。

太阳跟踪装置的分类方法有很多,按照跟踪方法,主要可分为视日运动跟踪和光电跟踪,视日运动跟踪又可分为单轴跟踪和双轴跟踪[5]。光电跟踪装置有较高灵敏度,结构简单,能通过反馈消除累积误差,具有较大优势,但受环境影响很大。其关键部件是光电传感器,常用的是光敏电阻。由于光敏电阻安装位置不连续和环境光散射等因素的影响,系统不能连续跟踪太阳,精度有限[6]。视日运动跟踪能够全天候实时跟踪,但是存在累积误差。其中,单轴跟踪装置结构简单,但跟踪误差大;双轴跟踪装置算法复杂,跟踪难度较大,但跟踪精度较高[78]。

本文用基于32位ARM嵌入式微控制器S3C2440来构建太阳跟踪系统,采用CMOS图像传感器来感知太阳方位,并通过微控制器计算获取太阳跟踪误差,实现对太阳的高精度跟踪。加入视日运动规律,在跟踪目标丢失时,对系统进行重新定位。同时,该系统的结构简单轻便,功耗低,环境适应能力强,能应用于各种太阳能设备。

1硬件设计

1.1系统硬件结构

系统以ARM微控制器作为主控制器,采用CMOS图像传感器采集图像,并利用双轴转台来支撑太阳能电池板。其中双轴转台集成了电机驱动与控制部分,通过串口与主控制器进行通信。

如图1所示是太阳跟踪系统的硬件结构图。在图1中,CMOS图像传感器与太阳能电池板处在同一平面,并固连在双轴转台上;ARM处理器与双轴转台的电机驱动部分采用串口通信方式;系统的供电均由蓄电池支持(包括ARM控制板和转台),因而形成了一个独立系统。系统的基本工作原理是:根据视日运动规律或CMOS图像传感器采集的天空图像,利用ARM处理器求取系统跟踪控制参数,并通过串口来控制双轴转台的转动。

图1太阳跟踪系统的硬件结构图1.2硬件介绍

(1) ARM微控制器。从实用角度考虑,太阳跟踪系统的低功耗设计显得尤为重要,ARM微处理器在保证高性能的前提下能够尽量降低功耗[9]。相对于PC机,ARM微处理器占用空间较小,质量轻,可靠性强,硬件资源丰富,在简化系统结构的同时为系统功能扩展提供了可能。系统选用32位ARM嵌入式微控制器S3C2440来构建控制平台。运用ARM微控制器构建的嵌入式图像处理平台大大提高了图像的处理速度,同时有效降低了系统成本。图像处理系统还具有拆装方便,配置灵活等优点,安全性得到大大提高[10]。

(2) 双轴转台。系统采用集成式双轴转台,其结构如图2所示,工作电压为24 V,可利用蓄电池供电。在图2中,x向为水平方向,y向为垂直方向。x向转角对应太阳方位角,y向转角对应太阳高度角。该双轴转台x向转动范围为-157°~+157°,y向转动范围为0°~90°,集成了电机控制模块,并提供串行接口,控制器可以利用串口通信来控制并驱动转台在x向和y向上的转动。

(3) CMOS图像传感器。图像传感器产品主要有CCD,CMOS,CIS三种。其中CMOS图像传感器集成度高,价格低廉,而且可以实现数字化输出,软件可编程控制,提高了系统设计的灵活性,同时也具有较高的抗干扰性和稳定性[11]。系统采用的图像传感器为OmniVision公司的OV 9650型COMS摄像头,其功耗为30 μW,阵列大小为1 300×1 028 pixels,焦距为4.85 mm,像素大小为3.18 μm×3.18 μm,支持软件可编程控制,输出图像格式包括YUV,RGB等。

图2双轴转台的结构图2软件设计

2.1跟踪控制策略

图3所示是太阳跟踪系统工作过程流程图,系统采用的跟踪控制策略如下:

(1) 系统可设置2种工作模式,早晨6:00唤醒跟踪控制系统,系统启动跟踪控制,进入跟踪模式;下午18:00休眠系统,系统关闭跟踪控制,进入待机模式。同时系统采用粗跟踪和精跟踪2种方式,粗跟踪采用视日运动跟踪方法,精跟踪采用基于计算机视觉的跟踪方法。粗跟踪为精跟踪提供初始工作条件,精跟踪保证系统的跟踪精度。

图3太阳跟踪系统工作过程流程图(2) 唤醒跟踪控制系统时,采用视日运动开环计算方法进行粗跟踪。粗跟踪的基本过程是:根据太阳运行的天文规律计算,利用系统时间和给定的当地经纬度计算太阳高度角和太阳方位角,并根据计算结果来驱动并控制步进电机,从而调整太阳能电池板的角位置。粗跟踪的目的是为了让太阳进入图像传感器的视野范围,主要用于首次定位和目标丢失后的重新定位。

(3) 系统工作在跟踪模式时,周期性采集图像,采用基于计算机视觉的闭环校正方法进行精跟踪。精跟踪的基本过程是:通过对采集图像进行处理,获取太阳角度偏差量。由太阳角度偏差量可得到转台应转过的角度,从而使太阳能电池板能正对太阳。精跟踪的目的是为了保证系统跟踪精度。

(4) 系统工作在跟踪模式时,由于阴天、雨天或其他原因,太阳光线很弱或基本看不见,导致CMOS图像传感器无法捕捉到太阳。此时,太阳能电池板的工作效率很低,为了减小跟踪系统能耗,不进行电机动作并保持当前状态。同时设置累计标志S,它表示图像传感器在连续S个采样周期内没有捕捉到太阳。当S累计到设定值N时,采用视日运动开环计算方法重新粗定位,并重置累计标志S。这样在降低系统能耗的同时可以提高系统可靠性。

2.2基于计算机视觉的跟踪方法

基于计算机视觉的跟踪方法,其基本过程如下:通过对采集图像进行处理,得到太阳位置偏差量。如果偏差在预设阈值范围内,则保持当前状态;如果偏差超出预设阈值F1的范围,则根据偏差的方向和大小调整转台,使得通过图像处理得到的偏差在预设阈值F2的范围内。其中阈值F1的范围比阈值F2的范围大,这样可以减小电机动作次数,降低能耗。

(1) 图像处理方法。图像传感器得到图像后,首先进行图像的灰度化。使用屏蔽字和移位操作来得到R,G,B分量,再进行比例转换,得到灰度图像。设置阈值,将图像二值化,得到的图像中的光斑即为太阳。找到太阳位置,计算光斑中心与图像中心的偏差值,将该偏差值换算为太阳方位角和高度角的实际偏差值。

(2) 偏差角计算与转台控制。记CMOS图像传感器的焦距为f,像素大小为kx×ky。假设采集图像上太阳位置偏离图像中心的偏差为px×py,则可以计算太阳偏差角如下:

太阳方位偏差角:Δα=arctan(px×kx/f) ;

太阳高度偏差角:Δβ=arctan(py×ky/f) 。

根据太阳方位偏差角和高度偏差角,通过串口控制转台转动,使太阳能电池板正对太阳。其中转台x轴应转过的角度为太阳方位偏差角,转台y轴应转过的角度为太阳高度偏差角。

2.3嵌入式处理平台的实现

系统采用S3C2440作为主控制器。利用Linux内核代码,针对本处理器和本系统特点,对内核进行相应的配置和裁剪,编译生成嵌入式内核,并选用yaffs作为根文件系统,将内核映像文件和根文件系统烧写到微控制器中,并编写相应驱动程序。

程序在主机上设计完成后,需进行交叉编译,然后下载到处理器运行。

首先在主机Linux系统下搭建交叉编译环境,这里采用armlinuxgcc4.3.2 with EABI版本的交叉编译器,并配置主机和目标板的NFS和FTP网络,以实现主机到目标板的文件下载和主机对微控制器的控制。程序编写完成后,进行交叉编译,生成可执行文件,下载到处理器运行即可。

3实验结果

3.1基于计算机视觉方法的跟踪实验

如图4所示是某次精跟踪过程的实验结果,其中(a)为CMOS图像传感器捕捉到的原始图像;(b)为经过灰度化、二值化后的结果,可以看出图像中的太阳已经被提取出来;(c)为精跟踪一段时间后图像传感器得到的图像,可以看出太阳处在图像中心位置,此时太阳光线垂直照射太阳能电池板。

图4视觉跟踪试验结果3.2系统技术指标

对本文提出的太阳跟踪系统进行了性能测试,通过分析测试结果,该系统的技术指标如表1所示。

表1太阳跟踪系统的技术指标

方位角范围-157°~+157°高度角范围0°~90°跟踪精度0.05°系统自重 /kg11工作温度范围 /℃-10~60噪音范围 /dB≤70系统平均耗电量 /W≤5

4结语

本文中设计的太阳跟踪系统采用视日运动跟踪方法和基于计算机视觉的跟踪方法相结合的方式,一方面采用视日运动跟踪方法进行初始粗定位和系统丢失目标时的重新粗定位;另一方面采用基于计算机视觉的跟踪方法进行精确跟踪。基于计算机视觉的跟踪方法采用CMOS图像传感器采集太阳光斑,利用ARM微控制器处理采集到的图像,实现对太阳的实时跟踪。实验结果表明,该系统可以连续跟踪太阳的角度变化,能够达到较高的跟踪精度;当跟踪目标丢失时,能够利用视日运动跟踪方法对系统重新定位,具有较好的环境适应能力。该系统具有较低的日均功耗、较高的跟踪精度和可靠性,结构简单轻便,可应用于各种太阳能光伏系统。

参考文献

[1],杨景常,郑宇.向日葵型跟踪太阳智能发电装置的研制[J].西华大学学报:自然科学版,2007,26(6):1820.

[2]苑玮琦,金晶晶.基于图像传感器的太阳方位检测系统研究[J].微计算机信息,2007,23(12):141143.

[3]HELWA N H.,BAHGAT A B G.,SHAFEEA M R E, et al. Maximum collectable solar energy by different solar tracking systems \[J\]. Energy Sources, 2000, 22 (1): 2334.

[4]GAY C F, YERKES J W, WILSON J H. Performance advantages of twoaxis tracking for large flatplate photovoltaic energy system \[C\]// Proceedings of 16th IEEE Photovoltaic Specialists Conference. \[S.l.\]: IEEE, 1982: 13681371.

[5]郑小年,黄巧燕.太阳跟踪方法[J].能源技术,2003,24(4):149151.

[6]杜伟巍,邹丽新,尤金正,等.基于CMOS图像传感器的太阳自动跟踪控制器设计与实现[J].现代电子技术,2009,32(11):150154.

[7]郑小年,黄巧燕,张晓黎,等.太阳集热器跟踪台的设计与控制[J].中国机械工程,2003,14(12):10071009.

[8]KALOGIROU S A. Design and construction of a oneaxis suntracking system \[J\]. So1ar Energy, 1996, 57 (6): 465469.

[9]周立功.ARM微控制器基础与实践[M].北京:北京航空航天大学出版社,2003.

[10]马俊青,宋爱国,甘英俊.一种基于ARM的图像处理系统的设计[J].电气电子教学学报,2009,31(4):6669.

[11]何小明.用CMOS芯片取代CCD[N].中国电子报,2000915(5).

[12]孙梦宇,赵敏,吴毅杰,等.基于ARM的电子负载网络监控系统\[J\].电子科技,2010(3):4649.

篇9

第3期谢珺,等:机器视觉在轮胎检测领域的应用研究

(1)算法的精确性提高伴随着计算量的成倍增加,处理时间就成为了实时检测的软肋;(2)硬件的分辨率提高了,图像的分辨率、精度也随之提高了,但是数据量计算量都因此成倍增加。因此,如何保证检测的实时性和准确性,是机器视觉系统在工业应用中需要解决的核心问题。2视觉检测核心技术

2.1机器视觉图像处理技术机器视觉就是用机器代替人眼来做测量和判断。机器视觉系统是指通过机器视觉产品(即图像摄取装置,分CMOS和CCD两种)将被摄取目标转换成图像信号,传送给专用的图像处理系统,根据像素分布和亮度、颜色等信息,转变成数字化信号;图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。有大量的文献和著作给与介绍和讨论,其中比较著名的马颂德的《计算机视觉》介绍了计算机视觉的算法和理论,以及Richard Hartley的《Multiple View Geometry in Computer Vision》介绍了在计算机视觉中的几何理论和方法[2]。机器视觉中的图像处理方法,主要包括图像增强、数据编码和传输、平滑、边缘锐化、分割、特征抽取、图像识别与理解等内容。经过这些处理后,输出图像的质量得到相当程度的改善,既优化了图像的视觉效果,又便于处理器对图像进行分析、处理和识别[3]。机器视觉理论应用于现代检测领域,是上世纪末本世纪初计算机视觉的一个新的研究方向。它使用计算机视觉的理论方法来识别物体的关键点,经过分析处理以后,转换成坐标数据,然后产生检测数据。国内已有学者把机器视觉技术运用于检测领域[4]。但是在轮胎检测领域,机器视觉技术的应用还仅仅停留在理论之上,还没有可实际应用的商品化的设备,更不用说结合机器视觉和嵌入式两种技术的便携式检测仪了。

2.2嵌入式技术嵌入式系统一般指非PC系统,有计算机功能但又不称之为计算机的设备或器材。它是以应用为中心,软硬件可裁减的,适应对功能、可靠性、成本、体积、功耗等综合性严格要求的专用计算机系统。嵌入式系统几乎包括了生活中的所有电器设备,如掌上PDA、移动计算设备、电视机顶盒、手机上网、数字电视、多媒体、汽车、微波炉、数字相机、家庭自动化系统、电梯、空调、安全系统、自动售货机、蜂窝式电话、消费电子设备、工业自动化仪表与医疗仪器等。嵌入式系统有以下几大优点应用的,它通常都具有低功耗、体积小,集成度高等特点;(2)嵌入式系统和具体应用有机地结合在一起,它的升级换代也是和具体产品同步进行的,因此嵌入式系统产品一旦进入市场,就具有较长的生命周期;(3)由于空间和各种资源相对不足,嵌入式系统的硬件和软件都必须设计,量体裁衣、去除冗余,力争在同样的硅片面积上实现更高的性能,这样才能在具体应用中对处理器的选择更具有竞争力。本研究选取嵌入式系统中的DSP(数字信号处理器)来进行开发,具体型号为TI公司的TMS320。它具有很高的编译效率和执行速度,在信号处理方面具有优势,它的特点如下:(1)程序和数据具有独立的存储空间,有着各自独立的程序总线与数据总线,可以同时对数据和程序进行寻址,大大提高了数据处理能力;(2)由于广泛采用了流水线操作,减少了指令的执行时间,可以同时运行8条指令;(3)与一般计算机不同,乘法(除法)不由加法和移位实现,它具有硬件乘法器,乘法运算可以在一个指令周期内完成;(4)指令周期降到了1.67 ns。随着工作频率进一步提高,指令周期将进一步缩短;(5)拥有自己独特的专门为数字信号处理而设计的指令系统;(6)相比传统的处理芯片,它还具有体积小、功耗小、使用方便、实时处理迅速、处理数据量大、处理精度高、性能价格比高等许多优点。3轮胎检测系统构成

3.1研究目标机器视觉用于产品表面缺陷检测需要面对以下主要问题:(1)数据处理量非常庞大;(2)如何快读匹配图像;(3)如何快速实现缺陷分割并剔除伪缺陷;(4)如何选取缺陷特征,用以实现缺陷识别。以具体产品为例,相对其他轮胎产品,航空轮胎对质量检测的要求较为严格,只要航空轮胎的检测技术到位,其他轮胎产品也基本可以检测。以航空轮胎的缺陷检测为例, 根据GB/T 9747-2008《航空轮胎试验方法》、GB/T 13652-2004 《航空轮胎表面质量》和GB 15323-1994 《航空轮胎内胎》等标准的要求,研究表面缺陷在线检测的图像处理方案;开发一套基于机器视觉的产品表面缺陷的在线检测设备,同时根据GB/T 13653-2004 《航空轮胎X射线检测方法》所述,配合X射线发射仪,利用一对一的服务器/客户机构架的机器视觉对标准中所描述的航空轮胎的一系列缺陷,如断层、气泡和裂口等进行高精度、高实时性、高连续性以及非接触式的在线缺陷检测。具体技术指标:(1)能检测出最小直径0.3 mm的轮胎内部缺陷(即横向纵向最小均为0.3 mm)并能对缺陷进行分类识别,主要包括结构类、气泡类和夹杂物类,对缺陷的检出率要求大于90%;(2)对缺陷部位进行定量和定位分析:读出缺陷的尺寸(误差0.5 mm),测出缺陷距离轮胎表面的深度,决定缺陷在轮胎内部的位置;(3)在线检测设备的检测检测速度与X射线管旋转速度同步,X射线管旋转一周即完成一个轮胎一个圆周的缺陷检测。

3.2研究内容和技术路线

3.2.1确定机器视觉检测系统的基本框架在数据量大时,采用一个处理器搭配一台摄像机的一对一方式。在产品表面检测中,由于航空轮胎的圆周面比较大,数据量也就比较大,通常采用的机器视觉单摄像机方式,很难满足圆周面检测分辨率高、数据量大的要求,而多台摄像机能满足分辨率和数据量的要求,却又相应带来实时性差的问题。若采用多台摄像机的方式,就需要配备多套成像系统,一套成像系统造价在10万元左右,基于成本和计算数据量的考虑,本研究选用一对一方式,利用分时运动克服单台摄像机采集数据量不足的缺点。具体来说,就是在经典的服务器/客户端模式架构的基础上设计一种基于机器视觉的系统结构以实现轮胎圆周面产品表面缺陷的在线检测,该结构主要由四部分组成:服务器(嵌入式系统)、客户端(图像处理子系统)、信号模块(PLC)、输出单元。系统框架如图1所示。每隔一定的时间(系统初步设定为5 s),服务器通过PLC控制步进电机驱动轮胎做圆周转动,每转过一个固定角度(系统定为120°),服务器就调动客户端完成此区域内相对独立的视觉检测任务,一次间隔只检测轮胎的三分之一(120/360),经过3个时间间隔,客户端即完成了整个轮胎360°的全面检测,然后利用拼接原理把各部分拼接起来,统一到一个坐标系下。拼接测量的关键是利用重叠区计算出各次测量时基准的不同,然后消除不同,统一在一个坐标系下。拼接测量的方法可以直接计算出被测轮胎的全面信息。为了保证服务器和客户端之间图像检测数据可靠、实时的交互,本研究采用千兆以太网的方式传输数据。作为整个检测系统的管理控制单元和人机交互接口,服务器不仅要完成检测任务的调度,还要可以设定检测参数,接收和实时显示客户端上传的图像数据和处理结果(缺陷等),并将信息存入数据库中。此外,服务器还接收PLC传来的位置检测信号,用于与客户端的同步,并且根据检测结果中的位置信号,对执行机构发出动作信号,标记并剔除有缺陷的产品。在客户端处理核心中安装有图像采集卡,接收服务器设置的参数和任务调度,控制采集卡和摄像机完成图像实时采集,利用图像处理算法处理和分析图像数据,将最终得到的缺陷位置和分类信息上传给服务器,保存缺陷图像以备查。

3.2.2设计编写表面缺陷检测的图像处理方案在表面缺陷检测中,根据图像数据的特点,本研究提出以下图像处理过程:缺陷分割、特征提取及缺陷分类。首先是缺陷分割:在表面缺陷检测的时候,利用图像处理算法,处理采集到的产品表面图像,将缺陷从复杂的背景图像中分离出来。接着是特征提取:提取缺陷后,对缺陷的各种标识性属性进行提取,主要是几何特征和灰度统计特征,以保证后续的缺陷分类和识别。几何特征指的是轮廓特征,比如长度、形状、面积、重心等。灰度统计特征指的是分布位置、统计值、均方差等等。还有缺陷分类:本研究采用改进的BP算法[7]对网络进行训练,构建神经网络分类器来实现轮胎缺陷分类,为了提高检测系统对伪缺陷的适应性,本研究将部分伪缺陷也作为网络输出并对其进行训练。由于图像处理中需要运用大量的计算机内存处理算法,为避免编程中出现内存泄露进而造成计算机内存资源流失的现象,决定采用对内存进行托管的C#语言进行编程。

3.2.3服务器和客户机系统之间的同步服务器/客户端模式架构的机器视觉系统具有独立性和并行性的特点,它不得不面临的一个重要问题是如何解决服务器和图像处理子系统之间的同步问题,包括摄像机同步采集、数据同步处理和轮胎运动同步控制等。本研究利用摄像机本身的外同步特性,采用对摄像机提供统一的线扫描触发信号保证摄像机采集同步。机器视觉系统基本组成模块见图2。

4结论实际测量结果证明,应用视觉检测方法可以较好地解决传统测量方法中时间长、工作量大、测量效率低的问题。该方法能够充分利用现代计算机技术的优势,设备简单、易用,克服了传统测量仪器的许多误差来源,具有快速、准确、非接触测量的优点。在实验室中初步完成了实验系统的核心部分(如图3所示),与传统的测量方法相比,原先需要15 min的测量时间,现在只需要15~30 s就可完成,操作也更加简单便捷。该系统可检测出最小直径0.3 mm的轮胎内部缺陷(即横向纵向最小均为0.3 mm)并能对缺陷进行分类识别,主要包括结构类、气泡类和夹杂物类,对缺陷的检出率为96%。

参考文献:

[1]彭向前.产品表面缺陷在线检测方法研究及系统实现[D].武汉:华中科技大学,2008.

[2]ZHANG Z.Determining the Epipolar geometry and its uncertainty[J].A Review Int Journal on Computer Vision,1998,27(2):161-195.

[3]章毓晋.图像处理和分析[M].北京:清华大学出版社,1999.

篇10

关键词:运动目标识别;背景差分法;瞬时差分法;OpenCV

中图分类号:TP273

0 引 言

运动目标的识别就是对包含运动信息的视频序列运用适当的技术进行处理,把与背景存在相对运动的前景区分开的过程。它是计算机视觉信息提取中的一个重要问题,也是更高层次视频分析,如基于对象的视频编码、目标跟踪、运动分析基础。目前,运动目标识别主要有三种方法:背景差分法、瞬时差分法和光流法。背景差分法可以得到比较完整的运动目标信息,但是背景模型的获取和更新比较困难。瞬时差分法容易在目标内部产生空洞,不能得到完整的目标信息。光流法计算比较复杂,且抗噪性能差,如果没有特定的硬件支持,一般很难用于运动目标识别的实时性操作。

在此介绍一种将背景差分法和瞬时差分法相结合的运动目标识别算法,并给出基于OpenCV实现算法的过程和实验结果。

1 算法思想

背景差分法是利用当前图像与背景图像的差分来识别出运动目标的方法。背景模型的获取和更新是该方法中的关键技术。一种简单的获取背景图像的方法是当场景中无任何目标出现时捕获背景图像,这种人工的非自适应方法获取的背景图像仅适用于短时间内的视频监控。目前大多数算法已经放弃这种非自适应的背景图像估计方法。当场景环境不是很复杂时,可以使用统计滤波完成场景中背景图像的估计,大多数情况下都可以得到正确的背景估计图像,但是当场景中有个别部分做无规则运动时,会引起场景中像素值不断变化,从而引起估计误差。基于高斯统计模型的背景估计方法在有部分区域不断变化的场景中也能比较准确地估计出背景模型,但是它的计算比较复杂,加上识别过程中其他操作也可能无法满足实时性需求。

瞬时差分法是在视频序列中两个相邻帧间采用基于像素的时间差分,并且阈值化来提取出运动目标的方法。即将相邻的两帧图像做逐像素相减运算,并设定阈值,若相减的值大于阈值,则将其看作前景图像(运动目标);否则看作是背景图像。瞬时差分法对于动态环境的适应性较强,不需要获取背景图像。当相邻两帧图像的纹理、灰度等信息比较接近时,这种方法通常不能完整地检测到目标的具体内容,在物体内部产生空洞。但是它可以较准确地得到运动物体的轮廓。

在此将使用一种背景差分法和瞬时差分法相结合的方法。首先根据一定数量的视频序列,采用基于高斯统计模型的方法获得背景图像。在后续处理中,对于每一帧的视频图像,首先用瞬时差分法识别出运动目标的轮廓,然后用这帧图像运动目标轮廓以外的区域对背景模型进行基于统计滤波的更新。这样就可以减少场景中运动目标对更新背景模型的影响,同时保证了系统运行时间的实时性,也可以得到较完整的目标识别信息。

2 算法实现

根据前文的算法思想,可以得到系统的流程图如┩1所示。

开放源代码的计算机视觉类库OpenCV(Open Source Computer Vision Library)是由英特尔公司位于俄罗斯的研究实验室所开发的一套可免费获得,并由┮恍┆C函数和C++类所组成的库,用来实现一些常用的图像处理及计算机视觉算法[7[CD*2]10]。下面给出利用OpenCV实现算法的具体过程和关键部分的代码:

(1) 捕获视频帧

定义捕捉源:

(2) 基于高斯统计估计背景模型

定义高斯背景模型:

将高斯背景模型的背景图像复制到事先定义的背景图像pBkImg 中:

(3) 使用瞬时差分法获得不包含运动区域的当前帧,并更新背景。当前帧pFrame和前一帧pFrame0做差分,结果放在差分图像diff中,并二值化:

接下来要做的操作是,找到差分图像中的轮廓,得到他们的外接矩形。将面积小的矩形视为噪音抛弃,剩下的则视为运动目标。同时设置当前帧pFrame和背景pBkImg的ROI为运动目标的外接矩形。先将当前帧的ROI置0,再对当前帧与背景的ROI进行逻辑(or)运算。这样,对于运动目标所在区域,当前帧和背景的图像信息是一样的,也就达到了消除运动目标对背景更新的影响目的。

这段代码如下所示:

用上述过程得到不包含运动目标信息的当前帧更新背景模型:

(4) 进行背景差分,得到当前帧运动目标识别结果的二值图像pFrImg:

3 实验结果

根据上述算法思想和实现过程,使用VC++6.0和OpenCV 1.0实现运动目标的识别。经过计算,该算法处理每一帧图像的时间大约是16 ms,可以满足实时性系统的要求。使用该算法对一段交通监控图像进行运动目标的识别,结果如图2所示。其中,图2(a)是当前帧图像,图2(b)是不包含运动信息的当前帧图像,用矩形框标注出了由帧间差分检测到运动目标的位置,┩2(c)是当前的背景模型,图2(d)是背景差分的结果。オ

4 结 语

由上述实验结果可以看出,本文介绍的算法可以较准确地得到背景图像,并且实现运动目标的识别。

系统尚需改进的地方有对运动目标边缘的检测不够清楚;如果可以加入阴影的检测和去除,应该会取得[LL]更好的识别效果。这些将是进一步研究的工作。

参 考 文 献

[1]刘雪.基于图像序列的运动目标检测与跟踪算法研究[D].山东:山东大学,2007.

[2]许志良,周智恒,曹英烈,等.关于运动目标检测的发展现状研究[J].移动通信,2008(6):35[CD*2]38.

[3]丁忠校.视频监控图像的运动目标检测方法综述[J].电视技术,2008,32(5):72[CD*2]76.

[4]尹彦,耿兆丰.基于背景模型的运动目标检测与跟踪[J].微计算机信息,2008,24(11):298[CD*2]300.

[5]赵占杰,林小竹,张金燕.基于背景重建的运动目标检测算法[J].北京石油化工学院学报,2008,16(2):27[CD*2]30.

[6]肖丽军,于哲舟,周栩,等.基于对称差分算法的视频运动目标分割[J].吉林大学学报:理学版,2008,46(4):691[CD*2]696.

[7]贾小军,喻擎苍.基于开源计算机视觉处理库OpenCV的图像处理[J].计算机应用与软件,2008,25(4):276[CD*2]278.

[8]马桂珍,朱玲赞,段丽.基于OpenCV的视频应用程序的开发方法[J].现代电子技术,2007,30(4):78[CD*2]80.

[9]李振伟,陈,赵有.基于OpenCV的运动目标跟踪及其实现[J].现代电子技术,2008,31(20):128[CD*2]131.

[10]刘瑞祯,于仕琪.OpenCV教程基础篇[M].北京:北京航空航天大学出版社,2007.