计算机视觉理论范文

时间:2023-12-21 17:19:52

导语:如何才能写好一篇计算机视觉理论,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。

计算机视觉理论

篇1

关键词:计算机视觉分析;微小尺寸;精密校正;阈值;图像分割

中图分类号:TP274.4

计算机视觉分析理论是基于精密模式识别和人工智能程序化校验技能进行综合整编的方法,利用光学信息对真实物理结构的实时反映,配合人机协调手段进行二维图像的呈现。在工件表面进行质量检测和图片制备要素分析的系统环节中,阐述物体在空间环境之间的关系样式,争取三维场景的科学搭建。集合要素内容包括边缘、线条和曲面的配备,建立以工业部件为中心的坐标体系,并适当运用不同符号表现模式实现必要三维结构和空间关系的调整,促进精密仪器细节检验工作质量的不断提高。

1 计算机视觉检测技术的相关理论研究

1.1 技术原理分析

渗透性计算机辅助支持结构的视觉鉴定技术在被测实体中的图像显示支持功能基础形势上进行质量状况的把控,这其实就是根据既定的偏差标准实现规模物件的逐个排查。细致的检测工作在深度零件的诱导性特征和完整性配件的支持下,对整体完好效果的几何制备模型进行测量[1]。近阶段的视觉规范系统利用电耦合器件和摄像机进行主题元素的捕捉,并利用计算机内部程序的数字信号转化工具实现图像的并行处理。采用目标图像的特殊坐标记录,利用灰度分布图内的多种综合功能处理系统改善的要务。常规视觉下的检测过程相对比较繁琐,主要是将被检测物体放置于照明效果相对均匀的可控制背景环境中,联结CCD技术和图像卡实现被测部件和数字图像的共性要素融合,保证计算机自动化处理程序的录入。当然,这类研究系统是需要利用相关软体进行放大的,其主要必备功能就是进行图像的预处理、识别和有效分析,将整个过程内部的实际结果数值,包括被测部件的自身缺陷、尺寸等进行整理。

1.2 计算机视觉微小尺寸精密检测工业应用技术的现状

在科学设计信息内容和工业加工制备要领集成化对待的环节中,通常不会直接进行部件表面的接触,一般运用计算机程序下的扫描认知和图像即时呈现功能进行快速的比对检测,整体信号抗干扰能力较强,因此在现代工业生产技术领域内部广受好评。电子工业是在建立计算机视觉分析工艺之后表现最为活跃的行业类型,在此基础上衍生的印刷电板路和集成电路芯片就是利用标准模型的整改,实现规模工序的紧密排列。目前,时下流行的汽车生产、纺织、商品包装等也逐渐向这类手段靠拢,全面改善了现代化工业制备的应用效果。

2 应用视觉微小尺寸分析技术内部拓展机能的补充

灰度图像的主要分割方法包括灰度阈值校正、边缘检测制备等手段。

2.1 灰度阈值校正

这是区域分割方法中一种常见的手段,主要配合多个或单个阈值将图像自身的灰度级别划分为几个项目组,对相同像素的单位数据进行整编。根据实效范围进行分类,包括局部和全局阈值探究两种手段,全局规模下的阈值分析方法就是利用整幅图的灰度直方分布图进行内部最优阈值分割,包括单阈值和多阈值两种形式;同时还可以将初始分析的图像进行子元素的拆解,之后利用单个子图像的既定阈值范围进行最优化分割[2]。分割的基本原理公式为:

其中,合理阈值的选取是非常重要的,目前阈值确定的手段主要包括直方图双峰对照法和最大类间方差累积法等。这种利用灰度阈值实现精准质量的划分手段,计算执行工作相对比较简单,并且实际工作效率水平较高,即便是实际需要分割的物体与图像背景对比深度较强也可以收放自如,但唯一的缺点就是缺少对空间信息的掌控,涉及亮度不足的图像问题,这种阈值分割技术的施工质量往往不会太高。

2.2 边缘检测制备工序

图像内部元素的分割其实就是进行部件边界效益的提取,而边缘检测制备工序则是利用像元及邻域的整体状态进行物体边界相关结构的搭建。边缘检测分割制备技术具体包括并行和串行两种模式,并行手法是运用梯度信息的提取实现不同类别算子的整理;串行边界分割原理则是根据适当强度标准和相似走向的两个边缘端点位置实现连接,主要代表算法包括启发式智能搜索手段等。这种串行算法较并行边界积累统计原则来说具有更强的抗干扰能力,但实际的边缘检测同样不能完好地维持连续效果,需要利用其余技术内容进行边缘制备技巧的修复。

(1)原始图像 (2)Robert算子边缘检测 (3)Sobel算子边缘检测

(4)Prewitt算子边缘检测 (5)Kirsch算子边缘检测 (6)Gauss-Laplace算子检测

图1 微小双联齿轮边缘检测

3 视觉检测系统的创新性改进

根据以上现状问题,创新式视觉整改校验系统利用照明光源、摄像机和图像采集卡等结构实现计算机输出结果质量的补充。其主要运行过程如下:利用被测部件在均匀照明背景的全面优化控制基础,实现物体结构的全面清晰呈现,使用摄像机对相关图像信号进行梳理并转化为电荷信号,配合相关的图像资源采集卡进行部件数字化图像的格式转化;计算机内部软体操作程序将得到的数字图像进行处理和识别,并将最终结果数据输出,实现现代工业技术整体质量规模控制的既定要求。

系统硬件在实现部件转化图像信息的环节中,连接检测机理下的连续软件规划和照明光源等相关设备进行图像适当分辨率的调整,维持图像较为清晰的对比效果。全面控制获取数字图像的时间,抵抗不良因素的干扰影响,维持内部成本经济规模的合理控制,促进科技应用和可持续发展经济战略双重价值标准的同步进展。其中,光源设备的选择必须落实到部件既定的几何形状条件下,利用相关性能参数进行实际工作要求的提供,包括光源位置、亮度、寿命特性等因素的堆积,常用的可见光源包括水银灯、荧光灯等,但这类光源使用寿命有限,因此现下多配用LED光源进行快捷反应、小功耗标准的补充,并且长期使用后的照明效果比较稳定[3]。而摄像机等结构主要还是校正参数的表达方式,进行图像合理分辨率的整改,促进图像采集数字化协调功能的发展,提高系统工作速度等。

4 结束语

计算机视觉检测系统在进行一定部件性能评比的活动中有着很高的贡献,不仅配合硬件的照明、参数制备要领制备功能,同时促进数字化图像对比的速度,使得工业生产环节中的部件检查工序得到大范围整改,满足可持续发展战略规模的视觉意义,促进现代智能化分析处理技术的全面覆盖。

参考文献:

[1]陆春梅.基于数字图像处理技术的接杆激光环焊焊缝视觉检测系统研究[D].上海交通大学,2008.

[2]罗敏.基于机器视觉的黑片缺陷检测图像边缘提取算法研究[D].沈阳理工大学,2010.

篇2

关键词:双目视觉;匹配算法;计算机视觉;立体匹配;相位一致性

1.计算机视觉系统分析研究

1.1计算机视觉技术及双目立体视觉

计算机视觉是通过计算机技术实现对视觉信息处理的整个过程,是一门新的学科。视觉是人们认知事物的重要途径,视觉是人们对视觉信息获取、处理和存储的过程。随着计算机技术的发展,信号处理技术的应用,人们通过照相机来把实际的事物拍摄下来转变为数字信息,并通过计算机信号处理技术队获取的视觉信号进行处理。计算机视觉技术对图像的处理分为获取图像、特征抽象选取、事物识别及分类和对三维信息的理解。获取图像主要是通过摄像机和红外线等技术对周围视觉事物进行获取,并通过计算得到和真实事物相应的二维图像,二维图像主要是数字图像。计算机视觉系统的最基本的功能是数字图像的获取。可以看出计算机视觉研究最基本内容是三维场景距离信息的获取。在计算机被动测量距离方法中,有一种重要的距离感知技术叫作双目立体视觉。双目立体视觉技术是其他计算机视觉技术无法取代的一种技术,对双目立体视觉技术的研究在计算机视觉技术和工程应用方面都是非常重要的。

1.2计算机视觉理论框架

第一个视觉系统理论框架的提出是以信息处理为基础,综合了图像处理和神经生理学等研究内容而建立的。这个视觉系统理论框架是计算机视觉系统的基本框架,与计算机视觉技术有着密切的关系。视觉系统的研究是以信息处理为基础的,从理论层次、算法层次和硬件层次3个层次进行研究。计算机理论层次主要是表达系统各个部分计算的目的和方法,对视觉系统的输入和输出进行规定,输入作为二维图像,输出是以二维图像为基础建立起来的三维物体,视觉系统的目的就是对三维物体进行分析和识别,通过计算对二维物置和形状进行重新建立。算法层次对计算机规定的目标进行计算,算法和计算机表达有关,不同的表达可以通过不同的算法进行实现,在计算机理论的层次上,算法和表达比计算机理论的层次要低。硬件层次是通过硬件来实现算法的一种表达方法。计算机理论层次在计算机信息处理中时最高的层次,取决于计算机的本质是解决计算机的自身问题,不是取决于计算问题的计算机硬件。要更好地对计算机系统和框架进行理解最好的方法就是要区分3个不同的层次,计算机理论的含义和主要解决的问题是计算机的目的,表达算法含义和主要解决的问题是实现计算理论的方法和输入输出的表达,硬件的实现的含义和主要解决的问题是如何在物理上对表达和算法进行实现。计算机视觉处理的可以分为3个阶段,对视觉信息的处理过程从最初的二维图像的原始数据,到三维环境的表达。第一阶段基元图的构成,基元图是用来表示二维图像中的重要信息,主要是图像中亮度变化位置及其几何分布和组织结构,图像中每点的亮度值包括零交叉、斑点、端点和不连续点、边缘等。第二阶段2.5维图描述,在以观测者为中心的坐标中,表示可见表面的方向、深度值和不连续的轮廓,基元是局部表面朝向离观测者的距离深度上的不连续点表面朝向的不连续点。第三阶段三维模型表示,在以物体为中心的坐标系中,有由体积单元和面积单元构成的模块化多层次表示,描述形状及其空间组织形式,分层次组成若干三维模型,每个三维模型都是在几个轴线空间的基础上构成的,所有体积单元或面积形状基元都附着在轴线上。视觉理论框架图如图1所示。

2.基于计算机的视觉立体匹配算法研究

视觉立体匹配算法是基于人类视觉系统的一种计算机算法。立体匹配算法作为计算机立体视觉问题研究的重点,快速地实现图像对应点的匹配来获得视差图是当今研究的热点问题。立体视觉匹配算法根据基元匹配的不同可以分为相位匹配、区域匹配和特征匹配3种,其中区域匹配算法可以减少计算负担,区域匹配算法实时性高,应用前景广阔。计算机立体视觉通过对人的双眼进行模仿,在双眼的立体感知中获得信息,从摄像机拍摄的图像中获取物体的三维深度信息,这就是深度图的获取,把深度图经过处理得到三维空间信息数据,二维图像到三维空间实现转换。深度的获取在双目立体成像视觉系统中分为两步,首先在双目立体图像与图像之间建立点对点的对象关系,双目立体视觉算法研究的重点问题是解决对应点之间的匹配问题。其次以对应点之间的视差为依据对深度值进行计算。双目成像是获取同一场景中两幅不同的图像,两个单目成像模型构成一个双目成像模型。双目成像示意图如图2所示。系统的基线B是两个镜头中心的连接线,空间点w(z,y,z)作为世界坐标的值由(x1,y1)与(x2,y2)进行确定,如果摄像机的坐标位置和空间点w世界坐标的位置重合,图像平面和世界坐标轴xY的平面就是平行的。如果两个摄像机在坐标系统中的原点不同但是它们的光轴平行,那么双目成像计算人们可以看图3所示,图3表示的是两个摄像头连线在平台xY的示意。

立体视觉的成像过程是成像的逆过程,具有一定的不确定性。大量的数据信息在从三维影像向二维图像进行投影的过程会出现丢失的现象,所以视觉系统要通过自然的约束条件才能保证获取正确的解。这些约束条件在减少匹配的计算量方面可以提供有利的帮助。针对基于区域匹配快速算法,还可以应用基于视差梯度的匹配算法,这种匹配算法应用较大的搜索范围在边缘的特征点上进行搜索,采用视差梯度在非边缘区减少搜索范围。应用计算机视觉立体匹配算法可以减少成像匹配时间,大大提高了工作效率。计算机立体匹配算法征点的提取是算法的关键问题,今后的研究方向重点是对有效特征点提取方法的研究。

篇3

关键词:计算机视觉;教学应用;教学改革

计算机视觉是人工智能学科中的一门重要课程。随着相关应用在多个领域中的出现,越来越多的学生开始对这门课产生了浓厚的兴趣。如何让学生能够在整个课程中保持盎然的兴趣,并为有志于深入研究计算机视觉的学生指明方向,成为我们教师首先应注重的问题。

在实际的教学工作中,通过不断摸索总结,我们认为,以实际应用引导学生的学习兴趣,既满足了学生想了解计算机视觉实际应用的需求,又加深了学生对于算法的理解,把算法放在一个实际应用中,学生可以理解怎么用,为什么这么用。在这样的目标导引下,我们从选择教材开始,准备教学内容(包括合理的应用实例的选择)、制作PPT、探索教学方法,形成了目前以实际应用为主导的创新教学体系,非常受学生欢迎。在此,我们对这期间遇到的问题,解决方法、心得体会做一个总结和思考,希望能对同行有些许参考作用。

1选择教材

在我们这个专业,每年的上研率基本都保持在50%左右。在本专业的研究生阶段,也开设了双语教学的计算机视觉课程。另外,毕业后选择参加工作的同学也基本都进入和本专业非常相关的一些单位,所从事的工作,都是和在学校学习的知识密切相关。

因此,如何让这门课程的教学既兼顾本科毕业就参加工作的那部分同学,又兼顾继续深造的学生的需求,也是在这门课程讲授的过程中,需要特别注意的一个问题。对于本科毕业就要参加工作的同学而言,需要“广度”,需要了解计算机视觉这门课在各个领域中的应用,在实际中接触到相关的项目或工作时,能够知道去哪里可以找到自己需要的参考资料;而对于要进一步深造的同学而言,则需要一定的“深度”,为研究生阶段的研究打下基础。

全盘考虑到这些学生毕业之后的去向,我们选择了两本教材。一本是贾云得教授编著,科学出版社于 2000年出版的《机器学习》[2],这是一部顺应了时代与教学发展要求的教材,对计算机视觉中的基本概念、基本算法、基本算法的应用、经典应用进行了由浅入深的介绍。内容涵盖了所有经典的数字图像处理与机器视觉方法,也对一些已经得到非常好实际应用的方法,如光流法等作了简要介绍。另外还选择了一本英文原版的计算机视觉的经典著作,Ramesh Jain 教授等所著的《Machine Vision》[3],机械工业出版社于2003年出版。这是国内外非常推崇的一本计算机视觉著作,该教材条理清晰,深入浅出,对计算机视觉的基本原理、算法、应用的介绍非常详尽。

在教学中,我们采用了英文的PPT,但主要用的教材是贾云得教授的《机器视觉》,这样中英文对照讲解,一方面加深学生对教学内容的理解,另一方面也为学生今后阅读专业的英文论了相应准备。

2教学内容和工程实例的选取

2.1选取教学内容

本课程之前,大学二年级的本科生已开设数字图像处理课程,但所讲的基本原理和算法都非常浅显,所以在教学内容的安排上,分为两大部分:数字图像处理部分和视觉部分。数字信号处理部分主要讲解在视觉部分会用到的一些基本算法,为后面进入计算机视觉部分打基础。这部分约占总课时的1/3。视觉部分的课时也分为两部分:算法讲解与实例讲解。在算法讲解部分,对计算机视觉的基本算法、经典算法都做了深入浅出的讲解。实例部分则选择了经典的工业应用,让学生能够对所学算法进一步加以理解。

2.2选取适当的工程实例

就计算机视觉的教学内容而言,各个孤立的算法和方法对本科生来讲,有些抽象不好理解。如果在教学上仅仅通过老师在课堂上的讲解,很难让学生深入地理解相关的教学内容,而选择一个触手可及且简单好理解的工程实例往往就会达到意想不到的教学结果,学生可以把课堂上所学的枯燥理论与现实中活生生的事物联系起来,从而加深对教学内容的理解。

通过反复比对、反复论证,我们选择了在讲解基本原理和算法之后,在课程结束前,专门留出课时讲解手机制造这个例子。手机现在是人手一部,是这些年青学子再熟悉不过的事物了,通过对手机主板、手机键盘的制造过程的讲解,把所学的算法都融合进来,学生在觉得有趣的同时,不知不觉就加深了对所学算法的理解。

另外,在教学的过程中,我们还不断穿插其他学生耳熟能详的实例,如数码相机原理中的一些算法的讲解,我们和学生一起探讨应该怎么选择数码相机。再有,滤波器算法、在课堂上对Photoshop功能的演示,与所学算法关联起来,学生都很容易理解接受。

3教学点滴

3.1点睛之笔

在第一节课的讲述中,我们的重点不在于Marr理论,而是告诉学生:

人工智能就是要让计算机像人一样,能够会听、会看……

我们这门课程就是要让计算机“会看”,要像人一样会看。进而展示给学生一些我们精心挑选的图片,让学生自己判断,是不是自己的眼睛“骗了”自己,人眼和计算机看到的到底有什么不一样。

每次讲到这里,学生都会进行热烈的讨论,每个人都有不同的看法,每个人都有自己的坚持,不知不觉中,对这门课就产生了浓厚的兴趣,有了继续深入学习下去的愿望。在课堂讨论的最后,比较人眼对图片的判断以及计算机的判断后,让学生自己总结归纳,我们这门课到底要研究些什么,都有可能应用在哪些方面,然后对争议比较大的提议一一探讨。每到这个时候,大家的积极性就都被激发出来,在不断的争论与思想碰撞中找出正确的结论。

3.2拿身边的事物说“事”

计算机视觉课程的前半部分,多涉及到图像处理的一些常见算法。在讲授各种各样的滤波器和算子时,并没有针对各个滤波器和算子摆出一堆示例图片,让学生比较滤波前后的差异,从而很生硬地理解滤波器与算子的功能。取而代之的,我们首先以现在人手一台的数码相机为例提出问题,你为什么要选择你手里的这台数码相机?当初选这个品牌和型号时,你的考虑是什么?历年学生的回答几乎都是看网上测评,或者在网上看别人怎么说。这时列出我们收集到的各个品牌相机的测评报告,列出它们的优缺点,然后引导学生去思考,例如这个品牌的相机的缺点是照片发灰,不是很鲜亮,而另一个品牌的相机则绿的特别绿,红的特别红,为什么?那么有可能是哪部分的算法不够完善,为什么?

通过如此简单的对比,学生的积极性被完全激发。原来,数码相机这个几乎人人都有,大家都熟悉的“玩具”竟然和自己在课堂上学到的知识这么密切相关。

再有,就是利用学生们都熟悉的PS(Photoshop),演示现在所谓的“完美证件照”是怎么来的。为什么可以把疙疙瘩瘩的脸部皮肤变得光滑?在PS中,你就是点了一下鼠标,其实在后台,是加入了一个滤波器进行了滤波。各种这样的演示,学生都非常喜闻乐见。因为他们突然发现,原来那些事物,和我自己接触到这些看似枯燥的理论之间,还有这么深刻的联系。

还有一个很受学生欢迎的例子就是对于“鼓形失真”的讲解。我们的老师每次讲到这里,都不会简单告诉学生“鼓形失真”发生的原因是什么,应该怎么解决?老师都会问学生,明星为什么都一窝蜂去减肥?现在的女明星为什么都要去弄个“锥子脸”?课堂上就会出现一个小,男同学和女同学的看法各异,彼此之间开始争论不休。此时再趁热打铁地问学生,如果拿着相机,离自己的鼻子一公分,会拍出什么样的效果?有学生开始拿出手机对着自己和别人开拍,有的学生开始头头是道地分析。每到这种学生都开始热烈讨论的时候,就可以适时引导学生往正确的方向去,让他们自己找到正确的分析解决方法,往往这个时候,学生都会颇有成就感,对于问题的理解也会特别的深刻。

3.3选择合适的实际应用

在所有理论讲解结束后,我们会留出2~4次课讲述计算机视觉在工业上的应用。这些年来,对于手机制造这样一个工业应用,非常受学生欢迎。正如“数码相机”这个例子一样,现在学生都是人手一部手机,是大家再熟悉不过的东西。这个例子涉及到了在前面理论讲述中的大部分算法,如二值图像的处理、模板匹配、高斯滤波器等。学生通过对这个工业应用的理解,更进一步加深了对算法的理解。

以讲解手机键盘的制造过程为例,向学生提出和前面所讲内容相关的问题,引导学生自发思考,如为什么选择模板匹配法,而不是采用其他更复杂更精确的方法等等。每到这个时候,课堂气氛总是分外热烈,学生各抒己见,在不断争论中,更进一步加深对课本上枯燥理论的认识。

在这里需要注意的问题是一定要一步一步提出问题,循循善诱,引导学生一层一层地深入思考。如果问题的答案过于“深藏不露”,则有可能触发学生的抵触情绪,无法继续深入地思考。

4结语

通过多年的教学摸索,我们认为,在计算机视觉课程的讲述中,以实际应用引导学生这样的教学方法非常可取,而且也收到了很好的效果。另外,除了制定好的教学大纲,并选择合适的教材外,根据学校现在的时间情况,我们选择了多媒体手段辅助教学,充分利用Matlab和大屏幕投影等方方面面的优势,结合多种方法进行教学,对讲好计算机视觉这门课,非常有益。

参考文献:

[1] 林尧瑞,马少萍. 人工智能导论[M]. 北京:清华大学出版社,1989.

[2] 贾云得. 机器视觉[M]. 北京:科学出版社,2000.

[3] Ramesh Jain. Machine Vision[M]. 北京:机械工业出版社,2003.

[4] 蔡自兴. 智能控制原理与应用[M]. 北京:清华大学出版社,2007.

Innovation in the Course of Computer Vision

HAN Hong, JIAO Li-cheng

(School of Electronic Engineering, Xidian University, Xi’an 710071, China)

篇4

关键词:计算机;视觉技术;交通工程

中图分类号:TP391 文献标识码:A 文章编号:1674-7712 (2014) 04-0000-01

一、引言

随着科技的发展,计算机替代人的视觉与思维已经成为现实,这也是计算机视觉的突出显现。那么在物体图像中识别物体并作进一步处理,是客观世界的主观反应。在数字化图像中,我们可以探寻出较为固定的数字联系,在物体特征搜集并处理时做到二次实现。这既是对物体特征的外在显现与描绘,更是对其定量信息的标定。从交通工程领域的角度来看,该种技术一般应用在交管及安全方面。监控交通流、识别车况及高速收费都是属于交通管理的范畴;而对交通重大事件的勘察及甄别则是交通安全所属。在这个基础上,笔者对计算机视觉系统的组成及原理进行了分析,并形成视觉处理相关技术研究。

二、设计计算机视觉系统构成

计算机视觉处理技术的应用是建立在视觉系统的建立基础上的。其内部主要的构成是计算机光源、光电转换相关器件及图像采集卡等元件。

(一)照明条件的设计。在测量物体的表征时,环境的创设是图像分析处理的前提,其主要通过光线反射将影像投射到光电传感器上。故而要想获得清晰图像离不开照明条件的选择。在设计照明条件时,我们通常会视具体而不同处理,不过总的目标是一定的,那就是要利于处理图像及对其进行提取分析。在照明条件的设定中,主动视觉系统结构光是较为典型的范例。

(二)数据采集的处理。如今电耦合器件(CCD)中,摄像机及光电传感器较为常见。它们输出形成的影像均为模拟化的电子信号。在此基础上,A模式与D模式的相互对接更能够让信号进入计算机并达到数字处理标准,最后再量化入计算机系统处理范围。客观物体色彩的不同,也就造就了色彩带给人信息的差异。一般地黑白图像是单色摄像机输入的结果;彩色图像则需要彩色相机来实现。其过程为:彩色模拟信号解码为RGB单独信号,并单独A/D转换,输出后借助色彩查找表来显示相应色彩。每幅图像一旦经过数字处理就会形成点阵,并将n个信息浓缩于每点中。彩色获得的图像在16比特,而黑白所获黑白灰图像则仅有8比特。故而从信息采集量上来看,彩色的图像采集分析更为繁复些。不过黑白跟灰度图像也基本适应于基础信息的特征分析。相机数量及研究技法的角度,则有三个分类:“单目视觉”、“双目”及“三目”立体视觉。

三、研究与应用计算机视觉处理技术

从对图像进行编辑的过程可以看出,计算机视觉处理技术在物体成像及计算后会在灰度阵列中参杂无效信息群,使得信息存在遗失风险。成像的噪声在一定程度上也对获取有效信息造成了干扰。故而,处理图像必须要有前提地预设分析,还原图像本相,从而消去噪音。边缘增强在特定的图像变化程度中,其起到的是对特征方法的削减。基于二值化,分割图像才能够进一步开展。对于物体的检测多借助某个范围来达到目的。识别和测算物体一般总是靠对特征的甄别来完成的。

四、分析处理三维物体技术

物体外轮扩线及表面对应位置的限定下,物体性质的外在表现则是其形状。三维物体从内含性质上来看也有体现,如通过其内含性质所变现出来的表层构造及边界划定等等。故而在确定图像特征方面,物体的三维形态是最常用的处理技术。检测三维物体形状及分析距离从计算机视觉技术角度来看,渠道很多,其原理主要是借助光源特性在图像输入时的显现来实现的。其类别有主动与被动两类。借助自然光照来对图像获取并挖掘深入信息的技术叫做被动测距;主动测距的光源条件则是利用人为设置的,其信息也是图像在经过测算分析时得到的。被动测距的主要用途体现在军工业保密及限制环境中,而普通建筑行业则主要利用主动测距。特别是较小尺寸物体的测算,以及拥有抗干扰及其他非接触测距环境。

(一)主动测距技术。主动测距,主要是指光源条件是在人为创设环境中满足的,且从景物外像得到相关点化信息,可以适当显示图像大概并进行初步分析处理,以对计算适应功率及信息测算程度形成水平提高。从技术种类上说,主动测距技术可分为雷达取像、几何光学聚焦、图像干扰及衍射等。除了结构光法外的测量方法均为基于物理成像,并搜集所成图像,并得到特殊物理特征图像。从不同的研究环境到条件所涉,以结构光法测量作为主要技术的工程需求较为普遍,其原理为:首先在光源的设计上由人为来进行环境考虑测算,再从其中获取较为全面的离散点化信息。在离散处理后,此类图像已经形成了较多的物体真是特征表象。在此基础上,信息需要不断简化与甄别、压缩。如果分析整个物体特征信息链,则后期主要体现在对于数据的简化分析。如今人们已经把研究的目光转向了结构光测量方法的应用,体现在物体形状检测等方面。

(二)被动测距技术。被动测距,对光照条件的选择具有局限性,其主要通过对于自然光的覆盖得以实现。它在图像原始信息处理及分析匹配方面技术指向较为突出。也通过此三维物体之形状及周围环境深度均被显露。在图像原始信息基础上的应用计算,其与结构光等相比繁杂程度较高。分析物体三维特性,着重从立体视觉内涵入手,适应物体自身特点而存在。不过相对来说获得图像特征才是其适应匹配的条件保障。点、线、区域及结构纹理等是物象特征的主体形式。其中物特较为基础与原始的特征是前两个特征,同时它们也是其他相关表征的前提。计算机系统技术测量基本原理为对摄像机进行构建分析,并对其图像表征进行特征匹配,以得到图像不同区间的视觉差异。

五、结束语

通过对计算机视觉技术的研究,悉知其主要的应用领域及技术组成。在系统使用的基础上深入设计,对系统主要构成环节进行分析。从而将三维复杂形态原理、算法及测量理论上升到实际应用。随着社会对于计算机的倚赖程度增加,相信该技术在建筑或者其他领域会有更加深入的研究及应用。

参考文献:

[1]段里仁.智能交通系境在我国道路空通管理中的应用[J].北方工业时报,2012(06).

[2]王丰元.计算机视觉在建筑区间的应用实例分析[J].河北电力学报,2011(04).

篇5

关键词OpenCV;科学教育;推广价值

1、OpenCV库简介

OpenCV是由Intel微处理器研究实验室的视觉交互组开发的一个跨平台计算机视觉库,它的代码都是开源的而且都经过非常好的优化,并且具有很好的移植性,可以根据需求导入到合适的环境中使用。它可以实现有关图像识别与处理和计算机视觉技术方面的很多通用算法。它的优势是可以运行在当代社会使用热门的各大操作系统上,适用性强,还可以脱离外部库而独立运行。OpenCV的C和C++都是经过优化的开源代码,采用灵活的接口,提升计算机的运行速度。其中包含的函数就有500多个,包括的种类有C和C++等。OpenCV因为免费面向市场,已经被社会各界广泛使用。现已应用于人机互动、图像识别、图像分割、目标追踪、3D重建、机器视觉、结构分析等数个领域。OpenCV主要包括以下几个部分:①cxcore:核心功能模块,包含一些基本函数,运用于各种数据类型的计算。②cv:图像处理和计算机视觉功能。③ml:机器学习模块,主要内容是分类器。④cvaux:包括大部分实验性的函数,例如ViewMorph-ing、三维跟踪、PCA、HMM等。⑤Highgui:图像界面接口,支持摄像头的读取和转换。

2、OpenCV处理图像的功能

OpenCV中有很多的函数,可以实现很多不同的功能,其中最具有学习价值的部分就是图像处理。处理图像主要分为三部分:加载图像,显示图像,处理图像。

2.1加载图像

不同类型的图像有着不同的内部结构。我们需要根据图像的结构采用合适的方法将图像文件中的数据读入内存。OpenCV中的cvLoadImage()函数,可以加载图像数据。而且图像的格式不影响加载的效果,加载后它以一个指向IplImage结构体的指针形式返回,大大方便了后续处理的过程。2.2显示图像加载图像后需要通过函数使其显示。cvNamedWindow()函数由HighGUI库提供,它可以在屏幕上创建一个窗口,将图像显示出来。cvShowImage()函数的作用是在这个创建的窗口中显示出加载过后的图像。观察图像时经常用到的重要函数还有可以使程序暂停的函数cvWaitKey(),以及用于释放内存的函数cvReleaseImage()和cvDestoryWindow(),掌握并运用这些函数,就可以轻松的实现观察图像的功能。

2.3处理图像

OpenCV中包含的多种函数,可以达到图像处理技术方面的很多效果,包括图像灰度化函数cvtColor(),边缘检测函数Sobel()、Laplacian()、Canny(),其中Canny算子只能处理8位灰度图,其余两种8位32位都可以,合并梯度函数addWeighted(),放大缩小函数resize(),阈值化操作函数imshow()等等。适当选用合适的函数并加以运用即可达到目标所需。

3、OpenCV的推广价值体现

OpenCV可以应用在社会的各个领域,价值就体现在每个科学的产物当中。举个近在身边的例子,随着社会的发展,生活质量的提高,人们的居住环境也在逐渐改善,楼层越盖越高,无数摩天大楼,商业大厦群起而立,电梯已经成为了我们日常生活中必不可少的工具。尽管现在电梯的功能、质量不断地提升,但是仍然存在些许不足,当我们在学校的教学楼内等电梯时发现了一个问题,那就是在电梯使用的高峰期时,比如在上下课时段,有很多人都在同一楼层等电梯。但是此时只有一台离该楼层最近的电梯会过来,而其余的电梯都会自动向其它叫梯楼层运行或是闲置。可是此时这一台电梯只能容纳有限数量的人,时常不能使所有人坐上电梯,这样就无法满足全部人的需求,由此就导致了有部分人无法及时地坐上电梯,需要继续等候,而闲置的电梯又不能及时地被利用。这样不仅不能合理地利用资源,反而浪费了许多不必要的时间。因此,我们想到可以通过利用图像识别与处理的方法来弥补这个不足,首先通过硬件设备连接拍照捕获候梯人像,后台运行判断出候梯人数,然后运用语言编程来确定调动电梯的个数,从而来达到实现自动控制每个电梯的运行的目的,使所有人都能在第一时间乘坐电梯。而上文中提到的OpenCV就可以完成这项艰巨的任务。我们将OpenCV导入编程环境,其次修改电梯工作系统的运行程序,将软件与硬件设备相连通,这样通过调度程序,就可以轻松高效地解决这个问题。使用这种方法,不仅可以节约人们的候梯时间,方便学生、老师上课,而且可以合理有效地调度电梯,使电梯的价值得到最大化。见微知著,OpenCV可以应用在每个领域,对各界的发展起到推动作用,造福社会的科技发展,方便人们的生活。

4、科学教育存在的问题

在历年的教学模式中,老师们往往会强调理论知识的重要性,但却忽略了对学生使用动手能力的培养,学生不能独立完成实践性的技术操作,也就是说教学模式缺乏实践性。只有将理论与实践相结合,才能实现知识价值的最大化,因此,应当在教学中配合着实践课程,举一反三,让学生们更加深刻地学习和了解所学到的知识。而如今虽然一部分学校也开设了实践课程,但也只是浅尝辄止,并没有过多地讲授计算机技术实践方面的知识,学生们也没有真正拥有动手实践能力,这使学生们的技术知识十分受限。虽然现在多数学生对计算机略懂一二,但是实际上仅仅会使用类似Word等简单的软件,而技术要求较高的一些软件及工具却全然不知,甚至对自己所学过的课程软件的使用也是马马虎虎,这对于未来工作所需的能力来讲,实在是九牛一毛。目前中学生使用电脑的重心更多放在了社交软件和游戏上,很少有人利用计算机学习更多的技能,这对青少年的发展实在是利大于弊的,而且这样也失去了计算机的正向价值。因此,我们应该改变现有的教学模式,一边教授理论知识,一边配合指导学生动手操作,将理论与实践相结合,也能让学生更好地消化和吸收所学到的知识,并且引导学生正确使用计算机,发挥计算机的价值,让学生们都能够在计算机中获得更多的知识。

5OpenCV开源算法库在各个领域的实例化体现

OpenCV在医学领域、军事领域、安全防护领域等都有很大的重要意义。在医学领域中,由于有了这个开源算法库,我们可以尽可能地调用它,从而来进行图像处理、对象检测,让医生更好更快速观测人体结构,及时发现病症。在军事领域中,大多数无人操作的机器运作,比如无人机飞行、水下无人驾驶仪、无人驾驶汽车等等,都需要用到OpenCV来对图像进行处理,并进行分析,并且可以检测出人眼看不到的事物,这是OpenCV能够带来人类的巨大的进步。在安全防护领域中,我们现实生活中常见的汽车的安全驾驶,房屋入侵的检测、自动监视报警系统等等,正是由于这些技术,让我们的环境更加安全,这都是我们生活中息息相关不可缺少的。现如今,国家的科学技术飞速发展,日益强盛,OpenCV的成绩有目共睹,未来的发展需要科学技术的不断推进,才能为祖国未来的其他事业提供强有力的后盾。

6OpenCV在科学教育中的作用

在文化改革的大背景下,文盲的概念早已从没有文化转变成了不会使用计算机。因为随着科技的进步,计算机的使用已经越来越广泛,计算机已经逐步取代了以往人工可以完成的许多工作,比如在超市生成的结账单、用计算机控制动力系统的运行、人造卫星轨迹的计算等等,这些都依赖于计算机强大的功能。计算机的推广证明着我国科技的发展和人类文明的进步,由此可见,计算机技术知识的掌握对现代人来说是十分重要的。如果想要成为一个真正有技术、有能力的人才,就务必要熟练掌握计算机技术的使用。但是目前当代社会的教育在计算机技术方面的内容还不够丰富。减压政策开放以来,教育课时被压缩,技术知识的传输也相应减少,学生们的能力也因此日益下降。而科学教育,顾名思义,是使科学技术在教育过程中得以传承。想要科学地教育学生,就必须要多多讲授科学技术方面有关的知识。说到科学技术,它的重点自然是计算机技术,而OpenCV作为计算机视觉技术的核心,可以说也是计算机技术甚至科学教育中的一个重要部分。在教育中普及并传承这个技术无疑可以提高学生们的技术水平。但是,相信有大多数的人在此之前从未听说过计算机视觉技术,也并不了解OpenCV库,更加不会学习到与之有关的技术知识。在这样严峻的形势下,我们更应该将类似OpenCV方面技术有关的知识通过教育传递下去。各大高校应积极开展有关计算机的活动,开设与计算机技术有关的课程。这样才能根据社会的需求来培养更多的综合性人才。如果可以将其投入到现代教育当中,定会使现在的教育事业更加辉煌,也能使祖国的未来更加璀璨。

参考文献

[1]于仕琪,刘瑞祯.学习OpenCV(中文版)[M].北京:清华大学出版社,2009.

[2]阴法名.基于OpenCV图像处理[J].科技信息,2009(32):220.

[3]贾小军,喻擎苍.基于开源计算机视觉库OpenCV的图像处理[J].计算机应用与软件,2008,25(4):276-278.

[4]陈胜勇.基于OpenCV的计算机视觉技术实现[M].北京:科学出版社,2008.

[5]刘洁,冯贵玉,张汗灵.一种图像处理和计算机视觉的开发工具[J].计算机仿真,2006(11).

篇6

关键词 计算机视觉;立体匹配;研究情况

中图分类号:TP391 文献标识码:A 文章编号:1671-7597(2014)07-0001-01

随着科学技术的快速发展,计算机技术也得到了飞速的发展。将计算机技术应用于人类的视觉系统,并辅助人们观察到一些眼睛难以看到的东西,已经逐渐成为一门大家所热捧和追逐的技术。随着人们对视觉传感器技术越来越多的探索,人们也逐渐实现了古代时想拥有千里眼的梦想。目前,人们已经把视觉传感器技术和计算机技术良好的结合在一起,并把这些技术应用到食品、建筑、医药、电子、航天航空等众多领域当中。而该项技术的快速发展,也帮助人们解决了一些日常工作当中人类视觉存在盲区的问题,保证了人们工作过程的安全。视觉技术与IT技术的完美结合使得人们的生活变得更加便利,让人们亲身体会到了IT技术给人们生活带来的便捷。

1 双目立体视觉概述

双目立体视觉又称双目视觉技术,是目前计算机视觉应用领域的重要研究内容。双目立体视觉控制系统的组成因其采用的原理和应用功能的不同,组成也都各不相同。

双目立体视觉的实现原理是基于人眼的视网膜看物体的特性,从两个不同的方向来观看同一个物体的不同角度,从而实现清楚的了解到物体的图像的目的。双目立体视觉从不同的角度获得物体的投影信息,并根据匹配的结果,获取同一个物体不同偏差位置的信息。最后在依据三角测量技术,根据已经获得的这些偏差信息从而获得这些不同点对应的距离信息,并最终获得这些实际物体的具体坐标位置信息。

视差测距技术告诉我们,要清楚的观察到一个物体的全貌,需要两个观察物从不同的方向,或者固定一个观察物,移动另外一个观察物的方式,以达到拍摄同一个物体的目的。根据同一个物体在两个观察物当中的位置偏差,从而确定该物体的三维信息。一般来说,双目立体视觉的组成包括:图像获取设备、图像预处理设备、摄像机标定设备、立体匹配设备、根据二维信息实现三维重构设备等五个重要设备。

2 双目立体视觉技术的原理

立体画又可以称之为三维立体画,是一种人们可以从三维立体图中获取二维平面图信息的技术。三维立体图表面看似毫无规则,但是假如通过一些特殊的技术或者通过合理的观察手段和观察设备,就可以看到一组秩序井然的美妙图片。

三维立体图是一组重复的二维图片有序的堆积积累而成,因此可以呈现出立体效果。人体观察物体的原理大致如下:当人类通过左右眼观察所在的空间平面的时候,这些平面图都只是一些毫无秩序的图片。而当左右眼重新聚焦或者在观察画面的时候呈现一定的层次感,则人类的左右眼观察到的一组重复案在经过人体识别以后,这些画面之间将存在一定的距离差异,从而在脑中生成立体感。

双目立体视觉技术正是基于以上的原理,从两个不同的方向去观察物体,并获得目标图像的信息,并经过一定的处理获得三维重建的物体立体信息的技术。

双目立体视觉在计算机技术中实现三维重建的大致流程

如下。

1)摄像机定位,并通过单片机计算得到要获取图像信息需要的外部的参数的大概值,并根据这些参数值设定摄像机。

2)用设定参数的摄像机拍摄目标场景的画面,并采集这些画面的二维图的信息。

3)通过计算机技术实现双目匹配,并判定采集画面中的二维图像中的不同点之间的对应关系。

4)在第三步中若得到两组二维图像的关系是稠密的时候,则生成三维视差图。如果不是则进一步采集图片信息。

5)根据得到的视差图最终实现场景的三维图形的重建。

3 双目立体匹配技术的研究难点和未来的发展方向

尽管目前有很多学者都投身到双目立体匹配技术的研究和开发当中,直至目前为止也解决了很多关于视觉理论当中存在的很多缺陷问题。但是视觉问题是一个复杂且难以解决的问题,特别是在双目立体匹配问题方面更是困难重重。立体匹配技术的难点已经成为限制将双目技术应用到计算机技术当中的重要瓶颈。

立体匹配的主要手段就是找到计算机采集到两幅和多副图片的中像素的对应关系,然后根据这些像素关系判定并生成三维重建图。但是二维图像的匹配存在层层困难,主要体现在以下几个方面。

1)由于视角的问题或者观察物体存在遮挡问题,导致采集回来的图片信息存在盲点,这样子更难找到图片的匹配区域。

2)场景中的一些深度不连续的区域大都处在场景当中的边界位置,这些位置容易出现像素不高,边界不清晰等问题,这些问题也给图像匹配带了很多困扰。

3)场景当中的低纹理的图片匹配特征和匹配关系较少,而且该位置的每个像素点极为相似。假如只是通过简单的像素相似性检测的话,会检测到很多匹配结果,而这些匹配结果当中有一大部分是错误的。这样子的结果势必会导致最终的图像匹配正确率极为低下。

从以上的分析,我们可以看出立体匹配技术存在很多技术上的难点,这些都在很大程度上限制双目立体匹配技术在计算机当中的应用发展。如何才能设计出有效、准确、快速、通用性强的立体匹配算法将会是以后双目立体匹配计算发展的重要方向。也只有通过设计出一套行之有效的立体匹配算法才能使得双目立体匹配技术在计算机视觉当中得到广泛的应用。

4 结束语

人们通过眼睛可以感受到外界事物的存在,可以清楚的了解到事物的立体信息,分辨出观察物的广度和深度,以及物体的远近。因此人类视觉感知系统就是一个双目的立体感知系统。本文讲述的计算机中的双目立体匹配技术正是基于人眼视觉观察物体的原理,通过双目立体视觉原理,对计算机采集获得两幅二维图像的信息进行分析,并结合计算机的分析,最终获得同人类眼睛一样观察到物体三维表面信息的目的。双目立体匹配技术与计算机技术的完美结合帮助人们可以更加轻易的获得物体的信息。希望在不久的将来,可以将该项技术应用于人类的视网膜当中,以帮助一些视网膜存在问题的人们,让他们重新感受到光明,感受世间的温暖。

参考文献

[1]高文,陈熙霖.计算机视觉算法与系统原理[M].北京:清华大学出版社,2002.

[2]明祖衡.双目立体视觉测距算法研究[M].北京:北京理工大学,2008.

[3]刘昌,郭立,李敬文,刘俊,杨福荣,罗锋.一种优于SAD的匹配准则及其快速算法[J].电路与系统学报,2007,12(4):137-14.

[4]陈蛟.双目立体匹配的算法研究及其多核并行化[M].南京:南京邮电大学,2012.

篇7

本书的第一、二、三版分别于1993、1999和2005年出版。书中全面提供了过去20年中在模式识别与计算机视觉领域中的进展和成就,作者都是这个领域的第一流专家,其中的两位Thomas Huang和Jake Aggarwal是权威的K.S.Fu奖金获得者,该项奖金是由国际模式识别协会(IAPR)授予。

全书共有五个部分。第一部分模式识别的基本方法(有5章):第1章统计模式识别;第2章时空模式的隐藏马尔可夫模型;第3章最小误差模式识别的一个新的基于内核的系统阐述;第4章并行上下文数组文法与轨迹;第5章模式识别与局部不变特性。第二部分计算机视觉的基本方法(有6章):第1章图像分析与图像判读的基于实例的推理;第2章多图像几何――投影的观点;第3章3维离散二值图像中的骨架化;第4章2维、3维及4维数字距离变换;第5章计算整体形状测度;第6章利用局部二进制模式的纹理分析。第三部分识别的应用(共9章):第1章文档的分析与理解;第2章中文字符识别;第3章从银行支票上手写的合理钱数中析取数字;第4章用于提高人类视觉的印刷体OCR评估;第5章使用图模型的万维网文档的群集与分类;第6章X线照片中肿块的自动检测;第7章比例空间中用于图像汇合的基于小波的卡尔曼滤波;第8章多传感器汇合与超频谱图像数据;第9章功能磁共振图像数据的独立组成部分分析。第四部分人体识别(有6章):第l章多状态情绪识别;第2章单眼视频序列的基于花纹循环的人体识别;第3章掌纹认证系统;第4章用于可视监视的高分辨率面部图像的重现;第5章利用可变形特性图的物体识别:脸、手及分组景物;第6章用于快速面部检测的分层分类与特性简化。第五部分系统与技术(有7章):第1章利用单个或多个照相机跟踪及分类移动物体;第2章图像分割算法的特性评估;第3章用于知识发现的基于内容的视频分析;第4章对象处理方法学及其对图像处理和模式识别的应用;第5章音乐风格识别――量化方法;第6章自动检测器:可移动自动化数字平板的识别;第7章全向视觉。

本书介绍了模式识别与计算机视觉理论及应用的深入研究,以及人体识别方面的最新进展,可供计算机科学相关专业的研究人员及研究生阅读参考。

胡光华,高级软件工程师

(原中国科学院物理学研究所)

篇8

Abstract: Surface roughness is key indexes to evaluate surface quality. Surface quality has influence on service life and usability. Two basic measuring methods are introduced: contact measuring and non-contact measuring. Non-contact measuring method based on the computer vision technology is discussed in detail.

关键词: 表面粗糙度;非接触;光学测量

Key words: surface roughness;non-contact;optics measurement

中图分类号:TH6文献标识码:A文章编号:1006-4311(2011)08-0050-02

0引言

随着科学技术的进步和社会的发展,人们对于机械产品表面质量的要求越来越高。表面粗糙度是评价工件表面质量的一个重要指标,国内外很多学者在表面粗糙度检测方面做了大量研究工作。目前测量表面粗糙度的主要方法有:接触式测量和非接触式测量。

1接触式测量

接触式测量就是测量装置的探测部分直接接触被测表面,能够直观地反映被测表面的信息,接触式测量方法主要是触针法,该方法经过几十年的充分发展,以其稳定、可靠的特点被广泛应用。但接触式测量存在很大的缺陷,具体表现在:①对高精度表面及软质金属表面有划伤破坏作用;②受触针尖端圆弧半径的限制,其测量精度有限;③因触针磨损及测量速度的限制,无法实现在线实时测量[1]。

2非接触式测量

为了克服接触式测量方法的不足,人们对非接触式测量方法进行了广泛研究。研究表明,非接触式测量方法具有非接触、无损伤、快速、测量精度高、易于实现在线测量、响应速度快等优点。目前已有的非接触式测量方法包括各种光学测量方法、超声法、扫描隧道显微镜法、基于计算机视觉技术的表面粗糙度检测方法等。这里我们只对基于光学散射原理的测量方法、基于光学干涉原理的测量方法和基于计算机视觉技术的测量方法做简单介绍。

2.1 基于光学散射原理的测量方法当一束光以一定的角度照射到物体表面后,加工表面的粗糙不平将引起发生散射现象。研究表明:表面粗糙度和散射光强度分布有一定的关系。对于表面粗糙度数值较小的表面,散射光能较弱,反射光能较强;反之,表面粗糙度数值较大的表面,散射光能较强,反射光能较弱。

基于光学散射原理测量表面粗糙度的研究方法和理论较多。四川联合大学和哈尔滨理工大学相继提出了一种称之为散射特征值的参数,表征被测物体表面上反射光和散射光的分散度,散射特征值与被测物体表面的粗糙度有很好的对应关系[2]。哈尔滨理工大学利用已知表面粗糙度参数值的标准样块测得其散射特征值,建立―关系曲线,从而实现利用散射特征值测量火炮内膛表面粗糙度[3]。

基于光学散射原理的表面粗糙度检测方法,具有结构简单、体积小、易于集成产品、动态响应好、适于在线测量等优点。该方法的缺点是测量精度不高,用于超光滑表面粗糙度的测量还有待进一步改进。

2.2 基于光学干涉原理的测量方法当相干光照射到工件表面同一位置时,由于光波的相互位相关系,将产生光波干涉现象。一般的干涉法测量是利用被测面和标准参考面反射的光束进行比较,对干涉条纹做适当变换,通过测量干涉条纹的相对变形来定量检测表面粗糙度。该方法的测量精度取决于光的波长。但是由于干涉条纹的分辨率是以光波波长的一半为极限的,仅从条纹的状态无法判断表面是凸起还是凹陷,因此,作为一种具有较好分辨率、宽测量范围的表面粗糙度在线检测技术,这种干涉法测量技术还有待于进一步发展[4]。

基于光学干涉原理,1984年美国洛克西德导弹公司huang采用共模抑制技术研制成功了光学外差轮廓仪,光外差干涉检测技术是一种具有纳米级测量准确度的高精度光学测量方法,适用于精加工、超精加工表面的测量,而且可以进行动态时间的研究;华中理工大学采用光外差干涉方法研制出2D-SROP-1型表面粗糙度轮廓仪[5]。美国的维易科(VEECO)精密仪器有限公司,采用共光路干涉法研制了WYKO激光干涉仪和光学轮廓仪,可用来测量干涉条纹位相[6]。

基于光学干涉原理测量表面粗糙度分辨率高,适于测量超光滑表面粗糙度,但由于该方法的测量精度受光波波长的影响很大,所以其测量范围受到一定影响。

2.3 基于计算机视觉技术的测量方法基于计算机视觉的粗糙度测量方法是指使用摄像机抓取图像,然后将该图像传送至处理单元,通过数字化处理,根据像素分布和灰度、纹理、形状、颜色等信息,选用合理的算法计算工件的粗糙度参数值。近年来,随着计算机技术和工业生产的不断发展,该方法受到越来越多的关注。

北京理工大学的王仲春等人采用显微镜对检测表面进行放大,并通过对CCD采集加工表面微观图像进行处理实现了表面粗糙度的检测[7]。哈尔滨理工大学吴春亚、刘献礼等为解决机械加工表面粗糙度的快速、在线检测,设计了一种表面粗糙度图像检测方法,建立了图像灰度变化信息与表面粗糙度之间的关系模型[8]。英国学者Hossein Ragheb和Edwin R.Hancock通过数码相机拍摄的表面反射图来估计表面粗糙度参数,运用Vernold Harvey修正的B K散射理论模型获得了比Oren Nayar模型更好的粗糙度估计结果[9]。澳大利亚学者Ghassan A.Al-Kindi和Bijan Shirinzadeh对基于显微视觉的不同机械加工表面粗糙度参数获取的可行性进行了评估,讨论了照射光源与表面辐照度模型对检测的影响,结果显示尽管从视觉数据和触针数据所获得的粗糙度参数存在一定差异,但是基于视觉的方法仍是一种可靠的粗糙度参数估计方法[10-11]。

可以看出,基于计算机视觉技术的测量方法主要有统计分析、特征映射和神经网络等黑箱估计法。通过这些方法获得的表面粗糙度参数的估计值受诸多因素的影响,难以给出其准确的物理解释。真正要定量地计算出粗糙度参数,需要科学的计算。

但是随着机械加工自动化水平的提高,基于计算机视觉技术的检测方法处理内容丰富、处理精度高、处理速度快、易于集成等优点将受到越来越多的重视。

3结束语

接触式测量测量速度较慢,容易划伤工件表面,并且不适用于连续生产材料表面的检测。非接触式测量具有无损伤、快速、测量精度高、易于实现在线测量等优点,已成为表面粗糙度检测的重点研究方向。非接触测量以光学法为主,随着计算机技术和工业生产的迅猛发展,基于计算机视觉技术的表面粗糙度非接触式检测方法受到越来越多的重视。

参考文献:

[1]刘斌,冯其波,匡萃方.表面粗糙度测量方法综述[J].光学仪器,2004,26(5):54-55.

[2]苑惠娟等.非接触式表面粗糙度测量仪[J].哈尔滨科学技术大学学报,1995,19(6):30-34.

[3]强熙富,张咏,许文海.扩展激光散射法测量粗糙度的测量范围的研究[J].计量学报,1990,11(2):81-85.

[4]王文卓,李大勇,陈捷.表面粗糙度非接触式测量技术研究概况[J].机械工程师,2004,11:6-9.

[5]王菊香.2D-SROP-1型表面粗糙度轮廓仪[J].工业计量,1994,(4):27-29.

[6]徐德衍等.光学表面粗糙度研究的进展与方向[J].光学仪器,1996,18(1):32-41.

[7]王仲春,高岳,黄粤熙等.显微成像检测表面粗糙度[J].光学技术,1998,5:46-48.

[8]吴春亚,刘献礼,王玉景等.机械加工表面粗糙度的图像检测方法[J].哈尔滨理工大学学报,2007,12(3):148-151.

[9]Hossein Ragheb,Edwin R.Hancock.The modified Beckmann Kirchhoff scattering theory for rough surface analysis[J].Pattern Recognition,2007,40:2004-2020.

篇9

关键词:多源图像;融合技术;棉花;病虫害;识别诊断

中图分类号:TP391.43;S435.6 文献标识码:A 文章编号:0439-8114(2013)11-2555-03

随着城市化进程不断加快,从事农业劳作的劳动力总数急剧减少,农业生产与加工的逐步自动化是社会发展和进步的需求。特别是对于农作物病虫害监测从传统的根据农业部的病虫害监测调查规范进行调查,通过人工调查、人工记录,到微小昆虫自动计数技术、昆虫诱捕自动记录装置来对农作物病虫害进行监测,这些信息收集和数据管理都存在劳动量大、效率低、数据误差大的问题。随着计算机技术和传感器技术的快速发展,图像融合技术在军事、气象、医学、土地资源管理等方面得到了广泛的应用,而如何将图像融合技术应用在农作物病虫害中是极具有研究价值的课题。

1 棉花病虫害诊断技术研究意义及发展趋势

棉花作为主要的经济作物一直在中国和湖北省农业生产中占有重要地位,但由于品种、栽培制度、生态环境等变化及棉花生长环境日益恶化,病虫害有不断加重趋势。危害棉花的主要病害有炭疽病、黑斑病、枯萎病、黄萎病等,炭疽病在长江流域棉区的发生尤为严重,一般苗期发病率为20%~70%,严重时可达90%;黑斑病在阴湿多雨年份往往猖獗流行,给棉花生产造成毁灭性灾害;而枯萎病在棉区一直发生较多,死苗严重,造成的危害主要表现在产量降低,品质变劣方面;自上世纪80年代末枯萎病得到控制后,黄萎病上升为棉花第一病害。目前黄萎病发病面积达到全国棉田面积的50%以上,发病后棉苗减产30%~70%,有的甚至绝产,而且严重影响棉花品质。采用先进技术提高棉花病虫害有效防治及控制已迫在眉睫。

1.1 棉花病虫害诊断技术的研究意义

在进行植物保护和防治农作物病虫害的各类方法中,化学防治是投入少、见效快、收效大的有效方法,特别是针对在大生态区域内可能暴发成灾的重要病虫草害,化学防治迄今仍是最快速而有效的方法,一般可以挽回15%~30%的农作物产量损失。使用农药(各种杀菌剂、除草剂等)进行化学防治在世界各国一直占主导地位,它投入较少,防治迅速,特别是当大面积、暴发性病害发生时,只有化学防治才能取得较好的防治效果。同样,在棉花病虫害综合防治中,化学防治仍然是及时有效地控制病虫对棉花危害的最后一道把关防治措施。但长期大量使用农药不仅污染环境,而且这些农药会通过空气、水等途径进入人体,对人类的身体健康构成危害;又由于棉花病虫害症状的复杂性和模糊性,农业生产者受个体素质和人为主观因素的影响,往往不能正确合理地判断病情,导致滥用农药、化肥等引起更大的危害;此外,由于中国正步入老龄化社会,从事农业劳动的人口在减少,由劳动力不足带来的农业减产问题已日趋严重。所以,精确作物病虫害管理和机械化变量施药技术的研究和应用势在必行。为实现精确的棉花病虫害管理和变量施药,首先要能够准确地识别棉花病虫害种类及其危害程度。传统的方法主要依靠生产者或专家经验来判断病虫害原因及其危害程度,由于个体素质的差异以及其他因素的影响,往往很难做到对病虫害做出精确定量分析和判断,因而容易造成不合理的病虫害防治,也对生产管理者的农技水平要求较高。一些智能决策支持系统虽然能识别诊断棉花病虫害,但是过程复杂,不能进行实时处理。随着信息技术、光谱技术和计算机视觉技术的发展使基于生物信息的作物病虫害智能识别诊断成为可能。通过多源图像融合技术快速准确地获取棉花病虫害信息,对已发生病虫害的棉花区域根据病虫害程度实行定量喷施农药。这样既可大量节省农药,提高效率,降低成本,降低对劳动力的依赖,同时大幅度减轻农药对农业生态环境的污染,提高棉花病虫害防治水平。研究多源图像融合技术对农作物病虫害诊断具有重要的学术意义和经济价值。

1.2 棉花病虫害诊断技术发展趋势

纵观近几年国内对作物病虫害智能识别诊断的研究,目前对棉花作物病虫害识别诊断主要集中在以专家系统为代表的智能化信息技术和光谱技术上,应用计算机视觉技术对棉花作物病虫害识别的研究报道较少[1,2],而结合光谱技术和计算机视觉技术进行研究的则未见报道。目标的高分辨率和高识别率是对获取目标信息的基本要求,仅仅利用可见光范围或在近红外范围的计算机视觉技术进行作物病虫害识别诊断,其单一光谱不足以准确、全面反映作物病虫害的差异,还需利用其他生物信息对其补充和加强,以达到全面地反映作物病虫害的差异[3]。

为了实现对低探测性目标的探测和识别,必须大力发展先进的目标探测系统,而由多源传感器组成的光电成像系统是最为常见的目标探测系统。图像融合就是利用各种成像传感器得到的同一目标或同一场景的图像,综合这些不同图像的冗余信息和互补信息,以获得更为全面准确的图像描述。为此,针对湖北省主要经济作物棉花,综合利用光谱技术、计算机视觉技术及多源信息融合技术,基于多源图像信息(可见光和近红外视觉图像信息)融合棉花病害(炭疽病和黑斑病)识别诊断技术。深入研究作物在不同病虫害危害下的反射光谱特性及变化规律,确定光谱敏感波段及其特征表现,提取可以有效表征作物不同病虫害条件、不同危害程度下的计算机视觉图像的灰度、纹理、形态特征信息和近地光谱特征信息,探索基于多传感信息融合的病虫害识别诊断方法,构建病虫害智能识别系统,为精确作物病虫害管理和机械化变量施药技术提供理论基础。

2 多源图像融合技术

图像融合[4]是对多幅源自同一场景的图像进行综合,以获得更好的视觉效果和易于机器识别为目的,产生比单一信息源更为精确、更完善、更可靠的图像。多源传感器图像是由成像机理不同的多种传感器获得的图像。由于每种成像传感器都是为了适应某些特定的环境和使用范围而设计的,具有不同成像机理的多种传感器获得的图像之间存在信息的冗余性和互补性,通过对其进行融合,能够提高系统可靠性和图像信息的利用率。随着科学发展和技术进步,采集图像数据的手段不断完善,出现了各种新图像获取技术。如今图像融合技术广泛应用于图像处理、遥感、计算机视觉以及军事等领域[5]。利用图像融合技术可以准确地获取检测数据,如在医学图像分析中的超声成像、核磁共振、计算机层析、血液细胞自动分类计数、癌细胞识别等极大地提高了准确率[6,7];图像融合技术在遥感雷达卫星的发展后,已成为遥感图像处理和分析的重要研究热点,应用于土地资源调查、环境监测、地形测绘等[8]。图像融合技术应用在农业生产中,目前研究方向主要集中在对农产品的无损检测和农作物生长态势及产量评估方面。如采用互信息最佳阈值迭代优化分割法对可见光和近红外图像进行融合来对番茄成熟度进行无损检测研究[9];通过加权平均融合法对红外和可见光图像实现对苹果进行无损检测研究[10];采用蚁群算法的模糊C均值聚类图像分割算法的图像融合技术对作物几何参数进行测量。

多源传感器图像融合系统一般有3种类型:像素级融合、特征级融合和决策级融合。

2.1 像素级图像融合

像素级图像融合是通过对源图像进行预处理和空间配准,对处理后的图像采取适当的算法进行融合,得到融合图像后再进行显示和后续处理。简单的像素级融合方法主要有:像素灰度值平均或加权平均,像素灰度值选大,像素灰度值选小。简单的像素级融合方法结构简单、易于实现,但应用范围有限,融合结果不理想。故现在的融合方法多采用基于对源图像的多尺度分解。这种分解方法是一种多尺度、多分辨率的图像融合方法,是在不同尺度、不同空间分辨率、不同分解层上分别进行融合。这种融合方法能明显改进融合效果[11]。

2.2 特征级图像融合

特征级图像融合是从不同的成像传感器所获得的同一对象图像中提取一些特征,产生特征矢量,然后对这些特征矢量进行融合。特征级图像融合是中间层的图像融合,精度一般。其融合方法有基于假设前提及统计分析的方法和基于知识的方法。

2.3 决策级图像融合

决策级图像融合是最高层次的融合,是首先依据每一个成像传感器所获得的同一对象图像各自进行预处理、特征提取、识别和判决后,做出独立的决策,然后将这些独立的决策综合起来,给出最终决策。决策级图像融合适合于多类不同传感器图像的融合,但融合结果精度较差。其融合方法有多重逻辑推理方法、统计方法、信息论方法等都可用于决策层的图像融合。

特征级图像融合和决策级图像融合方法通常应用于某些特殊场合,像素级图像融合的应用更普及,融合所得图像更有利于人眼的判读、欣赏和机器识别。对于已经配准好的图像,像素级图像融合方法不需要显式地提取图像特征,在速度和鲁棒性上有明显优势。为此采取像素级图像融合方法对农作物病虫害的可见光和近红外图像进行融合处理,使其符合人类视觉特征,融合结果更有利于对图像作进一步分析、理解和识别。

3 多源图像融合技术对棉花病虫害诊断的方法

1)在特定栽培条件下,培育不同棉花病虫害的试验样本及正常的对比样本。

2)对棉花病虫害样品的叶片和冠层进行光谱分析。利用便捷式光谱仪测量叶片和冠层的光谱,寻找棉花病虫害种类的敏感光谱波段及其反射率特征,分析不同病虫害种类和病虫害程度的敏感光谱波段反射率特征的变化规律。

3)根据光谱分析结果,构建多源图像计算机视觉采集系统,采集棉花作物样本多光谱图像,用VC或MATLAB编写计算机图像处理软件对图像进行处理和特征提取。

4)对所获取的特征应用模糊特征优选、主成分分析(PCA)和独立分量分析(ICA)进行优化组合和筛选,通过各种统计方法寻求作物病症与特征对应关系。建立图像特征与病种、病虫害程度的关系模型,利用模式识别方法进行棉花病虫害种类及程度的模式识别检测试验[12]。

4 展望

棉花是中国和湖北省主要的经济作物,长期以来棉田病虫害对棉花生产带来极大危害,因此,对棉花病虫害防治方法与技术的研究至关重要。对棉花作物病虫害防治的各种方法中,传统的方法是依靠人们的经验确认病虫害的发生时间、区域、种类和发生程度等,且是进行手工或机械喷洒农药,这不仅劳动效率低,劳动成本高,而且常规施药技术会带来农药利用率低下、水资源浪费、环境污染、农药在作物及其产品中的残留导致对人类的危害等。所以,结合光谱技术和计算机技术开展棉花病虫害的识别诊断研究具有重要的学术意义和经济价值。

参考文献:

[1] 周小燕,史 岩,李道亮,等.棉花病虫害诊断专家系统的研究与设计[J].莱阳农学院学报,2005,22(1):9-11.

[2] 严智燕,廖桂平,高必达.植物病虫害防治中农业专家系统的研究进展[J].中国农学通报,2005,21(5): 415-417.

[3] YUTAKA S,TSUGUO O.Automatic diagnosis of plant disease recognition between healthy and diseased leaf[J].农业机械学会杂志,1999,61(2):119-126.

[4] 何 友,王国宏,陆大金,等.多传感器信息融合及应用[M].北京:电子工业出版社,2000.

[5] 王 宏,敬忠良,李建勋.多分辨率图像融合的研究与进展[J].控制理论与应用,2004,21(1):145-151.

[6] ZHENG Y F, ESSOCK E A, HANSEN B C.Advanced discrete wavelet transform fusion algorithm and its optimization by using the metric of image quality index[J].Optical Engineering,2005,44(3):1-12.

[7] 李秋华.基于红外图像信息融合的目标检测和识别技术研究[D].长沙:国防科学技术大学,2002.

[8] 吉 微.多源气象卫星图像融合技术应用研究[D].南京:南京信息工程大学,2009.

[9] 李明喜.基于多源图像融合的收获目标准确定位研究[D].江苏镇江:江苏大学,2008.

[10] 杨万利,沈明霞,严 君.红外图像处理技术在苹果早期淤伤检测中的应用[J].计算机工程与设计,2010(1):149-152.

篇10

〖姓名〗黄可坤〖出生年月〗79.10〖籍贯〗广东省梅州市 〖民族〗汉〖学历〗硕士〖专业〗应用数学〖研究方向〗计算机图像处理 〖本科专业〗应用数学 (副修计算机软件) 〖家庭住址〗广东省梅州市梅江区 〖联系地址〗广州市中山大学数学系应用数学02研 510275 〖联系电话〗(020)84112378 〖个人主页〗

1.求职意向在高校从事基础教学与研究工作。在有一定企业文化的公司或者企事业单位从事计算机软件系统的设计、开发或者维护。

2.教育背景时间院校备注1992年9月--1998年7月中学。学习成绩一直比较优秀,被保送上高中。曾任学习委员、体育委员。 1998年9月--2002年7月本科,主修应用数学、副修计算机软件。学习2002年9月--2005年7月广州市中山大学硕士,应用数学,方向为计算机图像处理与模式识别,师从副院长戴道清教授。学习成绩良好,曾任班长。

3.技能专长英语通过大学英语数学对小波分析、图像处理、模式分类、计算机视觉有比较深的认识。熟练掌握数学分析、线性代数、微分方程、概率论与数理统计等主干课程。计算机能力系统开发:C/C++(优)、Delphi(优)、Visual C++(良)、C++ Builder。网站建设:ASP(优)、Javascript(优)、DreamWeaver。数据库系统:SQL Sever(优)、Oracle(中)。服务器与网络:Windows 2000 Server、Unix/Linux(良)、TCP/IP(优)。多媒体与课件制作:Photoshop、Flash、Authorware、PowerPoint。

实验工具:Matlab(优)。理论基础:熟练掌握数据结构、离散数学、计算机网络、操作系统等课程。实践项目:艺达堡MRPII系统、物业综合事务管理系统、鹤山宝华菲力制衣管理系统、雨人工作室管理系统、线性规划问题求解、南方证券广州分公司、李律师在线、好易网、中国妇幼网、天辅网。 4.教学科研 2002年进入中山大学数计学院计算机视觉实验室: 进行模式识别方面的研究,参与了《小波分析在图像处理中的应用》等科研项目,以及一些教学课件的制作。用Matlab实现了一种新的基于小波的图像融合算法,取得了比较好的效果。以及实现了一些常用的人脸识别的算法,比如PCA、LDA和SVM的方法。还实现了一些常用的图像压缩的方法,比如基于离散傅里叶变换、余弦变换和小波变换的方法。 完成硕士毕业论文《小波包在人脸识别中的应用》,主要作出了三个有意义的贡献。参加了第三届、第四届省港澳图象图形学会等学术会议。担任了实验室的网络管理员。 2004年上学期担任中山大学数计学院成人夜大本科2001级计算机应用专业《网络数据库》的教师。2004年下学期继续担任了该夜大02级《计算机网络》教师。讲课认真负责,获得学生一致好评。 5.工作实践 2000年暑假在广州市精软网络数据有限公司担任程序员,并独立开发了一个物业综合事务管理系统,之后一直在维护该系统。2000年9月到2001年9月在中山大学雨人工作室担任程序员及项目负责人,分析、设计、开发和维护了不少实际的商业管理信息系统和网站。2001年9月和几个同学一起创建了中大方略工作室,自己负责人员、资金、市场、项目的管理和开发。2002年1月拿到了广东北电通信设备有限公司软件设计师的