计算机视觉概述范文

时间:2024-01-15 17:58:07

导语:如何才能写好一篇计算机视觉概述,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。

计算机视觉概述

篇1

关键词:装饰工程识图;预算教学;装饰材料构造;计价软件

中图分类号:G642.0 文献标识码:A 文章编号:1671-0568(2012)29-0131-03

环境艺术设计作为设计行业的重要方向之一,主要是针对室内及景观等环境方向的设计。因为,它比较注重造型艺术、环境心理学及相关人文知识的研究与表达,所以在学科体系上一直被划分在文科或者艺术学。但是,又由于它与工程项目有着不可分割的联系,所以在类似建筑装饰材料、构造、工程预算等技术经济类课程中,也是这些课程的专业建设所绝对不能忽视的。无论在室内设计或景观设计的方案阶段,还是在设计师与施工单位进行技术交底等过程中,这些知识都是将设计理论由图纸变为现实的不可或缺的重要桥梁,直接影响了设计产品最终的实用与美观。尤其是工程预算,设计方案往往成为是否被接受、工程是否能顺利实施的决定因素之一。可以看到,高校环境艺术专业的毕业生在进入社会求职时,如果能熟悉装饰构造、材料及工程预算等技术经济类知识,往往更受公司青睐,有时甚至是录取的必备条件。

但在实际教学过程中却不难发现,由于环境艺术专业在各高校设立的历史并不长,师资又多以艺术学专业为主,所以针对这类课程的教学现状不容乐观。以《建筑装饰预决算》课程为例,本身具有浓重的理工科特点,而学习对象是以往以单一的美术练习为主的学生,这类学生对类似课程表现出轻视或学习能力的欠缺,再加上教师在教学安排中理论与实践的联系不够,导致学生的学习兴趣难以激发,教师的教学难度很大,教与学都陷入了一种尴尬的境地。因此,笔者将在《建筑装饰预决算》课程教学实践中总结的一些教学方法及心得提出,供大家参考。

一、提高学生学习兴趣,增强信心

针对环艺专业学生不了解装饰工程造价行业的事实,授课初期主要以提高学生学习兴趣为出发点,着重介绍建筑装饰工程预决算课程的重要性。对于大三的学生来说,最关心的是就业问题,为此在讲述专业知识的同时,紧密联系实际,介绍工程造价专业的社会应用现状,展示装饰工程造价行业的广阔发展前景,强调本课程的实用性和重要性,鼓励学生抓住机会,在课程结束时能够运用计价软件完成一份完整的工程造价文件,增加就业知识储备。这样既可以提高学生的学习兴趣,增加学好本门课程的信心,同时还可以鼓励学生参加造价员岗位培训和资格培训,争取毕业后能够持证上岗。实践证明,第一次课程的专业介绍和铺垫工作,为今后课程的顺利开展打下了良好的基础。具体措施举例说明如下:

在第一堂课上先撇开课本,主要从四个方面和学生讨论:第一,学习该课程的目的。这是学生最关心的问题,只有在这方面让他们心服口服,才会对本课程产生浓厚的兴趣。当他们得知学完本课程所能从事的职业后,更会加深对本课程学习的渴望。第二,这门课的难易程度。当学生得知只须运用加、减、乘和面积、体积的计算公式后,便会放弃"怕"的念头。第三,这门课程与其它课程的关系。当学生得知本课程与已学过的和今后将要学习的几门专业课都有关联后,更会加深对这门课重要性的认识,使之不会轻言放弃。第四,课程内容。当学生得知整门课每个部分都只围绕工程量计算规则和定额套用与换算后,更觉得有规律可循,学起来会更容易。这样,就紧紧抓住了学生的求知欲,调动了他们的学习兴趣,使他们兴趣盎然,产生一种跃跃欲试的冲动,教学效果自然“水到渠道”。

二、装饰工程识图与预算教学有机结合

识图是建筑装饰预决算学习的起点,是学习《建筑装饰预决算》课程的必经之路,也是学生学习中的难点。学生往往在识图环节就望而却步,还没有进入预算的学习就败下阵来,那么教师在后面的教学中,即使使出浑身解数、讲得天花乱坠,学生仍兴趣寡然。究其原因,连图纸都没看懂,当然就更提不上预算知识的学习了。因此,在具体的教学中,应做到识图教学与预算教学的有机结合,并且把二者都落到实处。

制图识图是环艺专业学生的基本功,似乎并不应该成为预算的畔脚石。但在实际工作中,完成一个方案是需要一个团队甚至几个单位的合作,很多时候一套图纸是由多人共同制作完成,由于绘图人员水平参差不齐,导致最终审图时出现很多问题。例如,墙面装修立面不全,无详细剖面图;吊顶标高与实际高度不符;地面平面尺寸与原建筑施工图纸存在差异;框架梁的高度与原结构图不符;建筑做法及说明不详细,等等。有经验的预算人员只看图纸不到现场有时还会摸不着头脑,何况学生呢?在审核时,教师除了以图纸为依据外,还要与绘图者进行沟通,一些常见的标准图集要熟记于心,可以做一些合理的推测。还有一条最重要却往往被忽视的原则,那就是实地现场测量才是验证数据是否准确、审核装饰图是否正确的最终依据。所以在识图教学中,建议增加现场教学的比重,即学生亲临现场,图纸与实物相联系,以图看物,以物解图,由平面转化为立体,由立体再回到平面。识图的学习与预算的学习不能割裂,两者应并行不悖、互相渗透,做到有的放矢。同时,尽量寻找一些简单而且已竣工的标准连锁化工装图纸,如中国建设银行或者肯德基餐厅,其装饰风格基本一致,类似工程随处可见,图纸既简单又有普遍性,随时可以现场应征。

篇2

关键词:OpenCV;计算机视觉技术;三维模拟技术

中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2015)30-0137-02

21世纪是国际计算机技术高度发展的时代,人们生活中的每个角落都可以看到计算机技术的身影,尤其是现代计算机视觉技术和图像处理功能发展更加迅猛,各技术分支也逐渐趋于成熟。计算机视觉技术主要指的就是利用智能计算机系统来代替人类的眼睛对现实三维世界进行辨识和理解,整个过程均是计算机自我学习的过程,而随着这项技术研究的不断深入,其不再仅仅包含计算机技术科学,同时还涉猎了包括生理学、神经学、物理学、应用数学等多门学科,为人类科技的进步提供了有效的动力。

1 计算机对视频中运动物体检测的原理概述

在现代计算机技术基础下,对视频当中的运动物体检测原理主要包括两种,分别是从微观和宏观的角度出发。其中宏观检测技术指的是当计算机截取了视频中的某一个图像,其以整幅图像为对象进行检测;微观检测技术是指在截取图像后,根据实际需求对某一区域内的图像内容进行检测。在计算机视觉技术实际应用时,其第一步就是对图像的采集,第二步是对已经采集的图像进行预分析处理,如果采用宏观检测技术则对图像整体进行分析;如果采用微观检测技术则首先将图像进行分割,然后对分割后各图像内容中出现的运动物体影像进行分析。在图像数据获取过程中应用的是背景差分法,这一技术主要是将背景和运动物体进行分离提取,以获取没有背景图像的运动物体影像数据。还可以利用帧间差分法,这种方法主要是对一个视频图像的逐帧画面进行差别比较,从而获得各帧图像上的差值,而将这些差值帧图结合起来就是一个物体在计算机视觉下的运动轨迹。现代研究者更倾向于将背景和帧间差分法进行结合运用,这样可以获得无背景下的运动物体轨迹,进而提升计算机视觉系统捕捉数据的准确性。

2 OpenCV的应用概述

OpenCV是现代计算机视觉技术当中具有开源性的视觉库,其最早是由俄罗斯Intel分公司所研发,不仅高效,而且具有兼容的优势。同时与传统IPL图像处理系统相比,OpenCV所处理的图像数据等级更高,例如在对运动物体进行特征跟踪、目标分割、运动轨迹分析以及三维模型重建等方面都有着巨大的优势。

OpenCV本身编辑的源代码是开放式的,编写过程简洁且方便,并且程序中大多数函数已经通过了汇编的最优化,使其能够更加高效地被应用。在使用OpenCV的摄像机标定模块已经为用户设计了实用性较强的接口,并且能够支持Windows界面的操作平台,使得这一技术的操作更加简便。这一技术本身操作简便,对于编程人员和检验人员个人技能素质要求并不高,视觉技术系统研发人员可以利用简便的操作来检验其设想是否能够实现,这就使得现代计算机视觉技术开发团队能够形成更好的协作研发关系,进一步提升技术研究效率。目前已知OpenCV编程系统在航空航天定位、卫星地图绘制、工厂大规模生产视觉检测等方面得到了广泛的应用,同时对于无人飞行器的视觉捕捉技术也有极大的帮助。最为重要的是OpenCV编程语言的兼容性较强,编程人员可以根据自己的意愿对源代码进行披露,并且国内也已经形成了规模较大的交流社区,给更多同行业者提供答疑解惑的场所,进一步扩大了OpenCV的应用范围。

3 基于OpenCV的计算机视觉技术

3.1 基于OpenCV下的运动物体检测技术

在常规运动物体检测技术下,均是直接通过图像背景和运动物体的区分来实现运动物体的捕捉。而基于OpenCV下的运动物体检测技术则不仅能够针对于图像背景的分离实现运动物体的观察,还可通过物体本身特定的信息来进行检测,主要包括形状、轮廓以及颜色等。这样就能够实现在复杂的背景当中将特定的运动物体完整抽离出来。其基本流程包括:首先,对影像数据当中某一时间点的图像进行捕捉,然后对这一视频图像的格式进行转化;其次,对转化格式后的视频图像进行早期处理,并将运动物体和复杂的背景区分开,降低周围各环境因素对运动物体主体图像的影响;第三,根据完成提取后的运动物体图像进行辨识,然后再从视频当中捕捉拥有相同特征的物体,并对该物体进行跟踪识别。而这一过程的实质则在于先利用图像捕捉技术对画面进行截取,然后同时利用背景差分法和帧间差分法对图像进行分割,逐帧地将运动物体完成提取出来,以供计算机进行视觉跟踪处理。

3.2 基于OpenCV的图像预处理技术

一般情况下,计算机视觉处理技术应用的环境情况较为复杂,大多数应用环境当中均有光照的变化,并且部分计算机视觉处理设备还需要在露天环境下进行工作,此时周围环境中的风、温度、光照、气候以及运动物体数量等对视频图像的采集均有着极大的影响。环境因素会使图像采集的质量大幅度降低,同时图像当中的噪点问题也难以避免,而噪点是视觉捕捉和图像处理当中最大的影响因素。因此,在基于OpenCV下的计算机视觉技术在捕捉视频图像之后先对其进行预处理,然后再由系统对运动物体进行分离、检测和跟踪。一般的预处理过程主要包括平滑度滤波、图像填充、背景实时更新等。

1)图像的平滑度滤波预处理技术

由于在实际计算机视觉捕捉过程中图像噪点是难以避免的问题,以此在对图像中运动物体进行检测前,应该相对这些噪点进行预处理,降低环境噪声对图像的影响。图像的平滑度滤波处理共分为两种方式,分别为线性和非线性。其中线性处理方式就是通过计算机处理设备的简单运算,对图像当中的噪点进行直接清除,但这一技术使用后会造成截获图像模糊不清的情况,因此仅对噪点较少的图像采用该处理方式;非线性滤波处理则是利用复杂的图像处理运算,将截获图像当中的噪点无限缩小,使其不对图像整体造成影响,并且可以有效保证图像的局部调整,但这种处理方式在运算时速度没有线性滤波处理快,因此需应用在噪点较多,图像信息较复杂的处理当中。

2)图像的填充预处理技术

这一处理技术在使用过程中运算速度较慢,主要是由于其需要对逐帧的图像均进行处理,也包括两种处理方式,分别为边缘填充和腐蚀膨胀处理。其中边缘填充处理主要指的是在确定运动物体之后,利用计算机系统自身的边缘检测处理技术,对物体的轮廓进行辨识,并利用形态学上的漫水填充方式对运动物体周围的噪点进行颜色填充,减小其对画面整体元素的影响。而腐蚀膨胀处理与边缘填充处理原理相类似,但这种处理技术主要是针对于噪点进行腐蚀和膨胀,使其在画面当中所占比例扩大,但对运动物体本身不造成影响,这使运动物体和噪点之间的差异就会更加明显,就可以将噪点的影响降到最低,但这种处理方法的效果和摄像机本身的性能、质量等有着密切的关联。

3)背景的实时更新预处理技术

在进行运动物体和背景分离过程中,计算机系统需要对图像上的背景元素进行辨识,并对其开展初始化处理,这样就能够为后期实时背景图像的差异进行凸显,以增加前景图像的效果,降低噪点对图像的影响。在运用这一技术时,首先要先对第一帧的图像进行确定,并将第一帧图像当中的背景图像元素进行辨识,然后在后期图像更新和运动物体检测过程中对背景进行实时更新处理。在更新的过程中其流程主要包括:首先,系统要对所读取的画面进行有效的判断,了解该图像是否为第一帧;其次,将Opencv处理的图像转变为单通道灰度值;第三,对转变后的图像进行高斯平滑度滤波处理,将图像当中的噪点进行去除;第四,采用形态学噪点填充技术对图像当中的噪点进行二次处理,以获得所需要更新的背景图像。

3.3 前景运动物体的提取技术

在计算机视觉技术进行运动物体的检测时,只有有效保障检测流程的准确度,才能够有效保障对前景运动物体的跟踪效果。其主要分为两大步骤,其一是对二值化后的图像数据进行分割处理;其二是在图像分析前对其进行充分的填充处理,保证前景图数据的完整性。同时,在前景图像提取的过程中也分为多个步骤,其包括:首先,对所提出的前景图像和背景图像进行差分处理;其次,将差分处理后的图像二值化处理;第三,对背景当中前景物体的轮廓或边缘进行辨识,根据前景图像的轮廓对其进行填充。由于在实际操作过程中,摄像头所处环境的变化较大,并且会在不同场所内的不同角度捕捉画面,因此就需要在前景图像提取时有效提高背景图像实时更新的效果。

利用阀值二值化的分割方式能够有效将前景图像和背景图像分离开,从而使目标运动物体能够呈现独立化,并且阀值分割方式开展前要相对每个像素点进行确定,判断其是否位于灰度值的范围内。而将该图像的像素灰度和阀值进行对比后会出现两种结果,分别是灰度值低于或高于阀值。在实际应用过程中,有效确定图像的分割阀值T,就能够降低环境当中光照因素对图像质量的影响。

4 计算机视觉技术当中的三维重建技术

1)三维重建的视觉系统

计算机视觉技术在对图像进行捕捉时可以视为是对大量的图像信息进行处理,从摄像机的视觉角度出发,其所输入的图像一般为二维属性,但输出的信息确是三维数据,而这种三维空间数据能够提升对运动物体所处空间位置、距离等描述的准确性。在三维重建视觉系统工作过程中,其相对基本的图像数据框架进行确定,然后利用一个坐标点建立2.5D图像数据,即以此点为视角能够观察到的图像数据,再将2.5D图像数据进行整合从而建立三维图像。

2)双目视觉系统

当人体利用双眼在不同角度、同一时间内观察同一个物体时,就可以利用算法来测量该物体和人体之间的距离,而这种方法也被称为双目立体感,其应用的原理主要是人体视觉差所带来的影响。同时利用两台摄像机对同一图像从不同角度进行观察,就能够获得人体双目观察后的效果,因此这一三维重建技术也被称为“双目视觉系统”。两台不同的摄像机即可代表人体双眼,其对图像进行逐帧捕获,但由于角度不同和环境影响因素的差异,因此造成了图像差异,必须对其捕捉的图像进行预处理。

3)三维重构算法

在计算机视觉技术中对于视频流的采集主要依靠的是彩色摄像机、红外摄像机、红外接收摄像头等设备。还可以利用微软所提供的Kinect设备,在进行运动物体检测前能够对NUI进行初始化处理,将系统内函数的参数设定为用户信息深度图、彩图、骨骼追踪图等数据。在使用Kinect设备对视频流进行打开时,其可以遵循三个步骤,其一是彩色和深度数据的处理;其二是根据数据的索引添加颜色信息,并将其引入到深度图数据当中;其三是骨骼追踪数据。

5 结束语

计算机视觉捕捉技术是现代计算机应用当中较为先进的内容,其应用范围较广,对于运动物体的捕捉准确度较高,能够有效推进现代计算机模拟技术的发展。

参考文献:

[1] 张海科.基于Opencv的人手识别与跟踪定位技术研究与实现[D].昆明: 云南大学,2013.

篇3

【关键词】图像识别 边缘检测 小波算法

小波算法在图形识别、压缩等方面有着较为广泛的应用,且具有较高的应用效率。在图形识别与压缩中实现小波算法的应用,能够更加有效地实现应用数据的识别与压缩。当前,在图像识别与边缘检测领域中依旧存在着计算方法相对单一的情况,这种局限性对图像识别与边缘检测的进一步发展造成了严重的阻碍作用。因此,要实现小波算法在图像识别与边缘检测中的广泛应用,促进其进一步发展。

1 小波算法概述

法国地球物理学家J・Morlet在1984年首次提出了小波的概念,随后Hardy空间分子解说研究为小波算法的诞生奠定了理论基础。当前,小波算法在图像处理中有着非常广泛的应用,并且其应用效果非常良好。小波算法主要是对非平稳的信号进行分析,在小波算法压缩、平移等处理功能的支持之下,能够从多个尺度对函数或者信号进行分析,实现空间域与频率域的具备变换,从而能够更加有效地对信息进行检索。因此,小波算法属于新兴的信号处理技术。

在传统的信号表示中,正交基有着非常广泛的应用。基函数具有正交性,这使得基函数相应的表示函数能够通过内积进行计算。小波算法实现了局部化思想的发展,属于信号的“时间――频率”分析方法,其主要的特点为多分辨率分析,同时在时间域与频率域中都能够对信号的具备特征进行表示。

2 图像识别中小波算法的应用分析

图像识别指的是通过计算机实现对图像的处理、分析与理解。通过图像识别工作能够实现不同模式目标、对象的计算机识别工作。一般情况下,图像识别的有效支持包括两个方面,一方面是进入到系统中的信息,另一方面是系统中原本保存的信息,通过对这两种信息的对比之后实现对图像的有效识别。不同的图像具有不同的特征,计算机在进行图像识别的过程中通常会将视线集中在图像较为突出的特征方面,从一个突出的特征向下一个突出的特征进行依次扫描。因此,在图像识别的过程中,知觉机制的工作原理为排除多余信息、识别关键信息,因此小波算法有着非常关键的作用。一般情况下,在图像识别中实现小波算法的应用,能够有效地整理按照阶段获得的信息,以此为基础形成完成的知觉映像。此外,在图像识别中实现小波算法的应用还能够有效地处理与计算信息的细节,促进图像识别效率的提高。

利用冗余小波对图像进行J个尺度的二维小波变换,得到3・J+1幅子图像,其公式为

[Cj・{dj1,dj2,dj3},j=1,2,3,……,J] (1)

其中,Cj代表原图像尺度aj上的二维小波变换得到的低频子带图像;djk代表原图像在尺度2j与方向k上的二维小波变换得到的高频细节自带图像,其中k=1,2,3,分别对应高频子带图像的水平部分,垂直部分与对角线部分。

3 边缘检测中小波算法的应用分析

在计算机视觉中,边缘检测是非常重要的核心问题之一。一般情况下,边缘检测的主要目的就是对数字图像中具有明显亮度变化的点进行标识。在边缘检测的过程中,图像属性中一些较为显著的变化能够对重要事件、变化等进行反映。例如,如果在图像的属性方面出现了表面方向不连续的情况,这就说明在这一地方存在着比较重要的事件、变化等。此外,边缘检测在图像处理与计算机视觉中还发挥着特征提取的关键作用。实现了小波算法在边缘检测中的应用,能够在很大程度上实现相应数据计算量的降低,同时还能够将计算机视觉中一些不相干的冗杂信息进行有效的剔除,同时能够合理地对结构属性进行辨识与保留。小波算法在边缘检测中的应用包括两种类型,第一种类型为查找计算,第二种类型为穿越计算。在边缘检测的查找计算中,工作人员通过以查找方法为基础的小波算法对计算机图像中的一阶导数最大值与最小值进行寻找,从而实现边缘检测工作。在边缘小波基选取的过程中,遵循的原则包括:第一,边缘检测小波应该选择高通滤波器,滤波器的脉冲回应函数包括奇对称与偶对策两个部分,

f(x)=f1(x)+f2(x),其中f1(-x)=-f1(x),f2(-x)=f2(x)

除此之外,小波算法在边缘检测的应用过程中,其主要的应用效果还包括在数据压缩方面取得了较好的效果。小波算法首先对边缘检测中的线性频率进行分析,之后实现相关信息与数据的压缩与处理,通过小波算法实现压缩与处理之后,其图像的分辨率普遍较高,出现这种情况的主要原因是在边缘检测中实现小波算法的应用能够使边缘检测中存在的高频信号进行消除,在高频信号消除的基础上对信息与数据进行压缩工作,从而取得较好的效果。然而,在利用小波算法实现边缘检测中的数据与信息压缩时,工作人员还应该关注到边缘检测中存在的非线性不稳定信号,在对这些信号进行处理的过程中,小波算法的应用效果并不明显。因此,在边缘检测中实现小波算法的应用,应该注重小波算法形态的有效选择,从而实现边缘检测水平整体上的提升。

4 总结

随着计算机视觉处理技术的快速发展,图像处理与边缘检测中已经实现了小波算法的广泛应用,且已经取得了非常良好的应用效果。因此,工作人员在图像识别与边缘检测的过程中,对小波算法的应用已经有了非常明确的了解,通过小波算法的有效应用能够促进图像识别与边缘检测水平的不断提高。

参考文献

[1]乔闹生,邹北骥,邓磊,曾友兵,邹剑臣.一种基于图像融合的含噪图像边缘检测方法[J].光电子.激光,2012,11(65):2215-2220.

[2]马丽亚木・阿布来孜,艾力米努.阿卜杜如苏力.一种基于边缘图像融合的图像边缘检测方法[J].计算机系统应用,2012,12(41):182-185.

[3]王娅囡,谷方,杨厚俊,范延滨,贾冬雪.基于PET医学图像边缘检测算法的研究[J].现代生物医学进展,2014,05(42):965-968.

[4]王晓丹,吴崇明.基于MATLAB的系统分析与设计--图像处理[M].陕西:西安电子科技大学出版社,2014,02(44):96-98.

篇4

关键词计算机视觉;图像处理;AOI;作物识别;像素

1概述

借助于计算机视觉技术的智能化,能快速识别出植物,判断其覆盖率,并确定其位置,有针对性地采取措施。这不仅能能降低投入,而且对我国温室精确种植和设施农业着重要的经济意义和实际价值。随着计算机软硬件性能价格比的提高,特别是近十年来计算机技术在各个领域的渗透,利用计算机视觉技术来取得植物特征并作进一步分析已经变得切实可行[1]。

本文针对温室大棚采集的杂草图像进行研究,实现了一种快速植物特征提取与识别算法,能够满足实时地为后续变量控制提供信号的要求,为进一步的研究工作打下了一定的基础。

2图像处理

2.1图像分割

利用CCD彩色摄像机获取的图像,通过图像采集卡将获取的图像以真彩色24位位图的格式存储。真彩色24位位图在存储格式上是以3个字节表示图像中的一个像素点。这三个字节分别存储像素点的R、G、B颜色分量值。三个值根据RGB颜色坐标系统(见图1)合成这个像素点的颜色值。目的一是为了获得更多的信息量,二是为了减少图像解压缩的过程,加快处理速度。

图像分割是由图像处理到图像分析的关键步骤,也是一种基本的计算机视觉技术。随后的图像处理,诸如特征提取和对象识别,都依赖于图像分割的质量。图像分割就是指把图像分成各具特性的区域并提取感兴趣目标的技术和过程[2]。尽管人们在图像分割方面做了许多研究工作,但由于没有通用的分割理论,现己提出的分割算法大都是针对具体问题的,并没有一种适合所有图像的通用分割算法[3]。这里的图像分割,主要是指去除

植物图像中的土壤背景及作物残茬。为了有效的将叶面与背景区分,要对原始图像数据进行选择和变换,得到

最能反映分类本质的特征。在此所说的图像特征,指的是图像中各个点的特征,而不是整个图像的整体特征。

对于彩色图像分割问题,必须充分利用彩色图像所包含的丰富的色彩信息,选择适当的特征,使目标和背景能依据特征上的差别进行区分,利用这个颜色特征将彩色图像转变成灰度图像,再确定阈值将灰度图像二值化。

2.2RGB和HSI坐标系统

数字图像处理中,常用的颜色坐标系统有RGB和HSI坐标系统(坐标系统图如图1、图2)。RGB颜色坐标系统以红R、绿G、蓝B三种颜色为基色,其它颜色由这三种基色加权混合而成。HSI坐标系统中H表示色调(Hue),S表示饱和度(Saturation),I表示密度,对应图像的亮度(Intensity)。面向硬件设备(如彩色显示器和打印机等)的最常用彩色坐标系统是RGB坐标系统,而面向彩色处理的最常用颜色坐标系统是HSI坐标系统,HSI坐标系统有两个特点:其一,I分量与图像的彩色信息无关;其二,H和S分量与人感受颜色的方式是紧密相连的。这些特点使得HSI坐标系统非常适合于借助人的视觉系统来感知彩色特性的图像处理算法[4]。

图1RGB颜色坐标系统图2HSI颜色坐标系统

从RGB坐标系统到HSI坐标系统的转换公式如下:

在RGB颜色坐标系统中,如果不考虑光照强度,而只对色度感兴趣,则只要知道R、G、B的相对值即可。相对值r、g、b称为色度坐标,其计算公式如下:

(2)

其中,Rn、Gn、Bn分别是规范到0~l之间的RGB值,其计算公式如下:

(3)

式中的Rm、Gm、Bm分别是RGB颜色坐标系中的最大分量值。不同的彩色显示系统有不同的取值范围,例如,一个24位的真彩色显示系统中,Rm=Gm=Bm,此时r、g、b可按下式计算

(4)

2.3统计实验

物体的颜色是由它的反射光谱特性和光源特性所决定的。由于有生命的杂草的反射光谱特性不同于无生命的土壤背景,因而两者在颜色上形成了鲜明的对比,但在亮度上差别不明显。对不同土壤、土壤残留物以及各种光照条件下的用于识别杂草颜色指数所做的研究表明,在通常情况下,植物图像的背景即土壤有较大的r、b值,而其g值却总小于植物本身的g值,这里r、g、b是归一化的颜色分量,其计算公式如(4)。通过研究利用r-b、g-b、(g-b)/|r-g|和(2g-r-b)等指标来区别植物与非植物背景是非常有效的。本文在前人的研究基础上,利用AOI(Areaofinterest,感兴趣区域)测试工具对大量的包含各种类型的杂草图像进行颜色特征的分析,采集了不同土壤、作物残留物以及各种光照条件下温室大棚内的杂草图像。统计研究上述四种归一化颜色特征参数的均值和标准偏差,以及(2G-R-B)颜色特征参数和H、S、I值的均值和标准偏差。统计的结果如下表1、表2、表3、表4。为了便于计算,作了如下规定:为了避免分母为零的情况发生,规定在(-0.01,0.01)之间的(r-g)值为0.01;有些叶子像素的g值远大于r值,从而导致

(g-b)/|r-g|很小,为避免这种情况,当(r-g)小于-0.08时,(r-g)的值设置为0.01。(注:“残茬土壤”为含有作物残茬的土壤)

2.4结果分析

由表l和表2可以得出以下结论:

(1)对于r、g、b三个分量值,干土大于湿土,这是因为干土的反射率高于湿土的反射率,土壤湿度越大,则r、g、b值越低。

(2)在相同的土壤湿度下,由于有麦茬等覆盖物的区域的反射率低于没有覆盖物的区域,因此,其色度坐标r、g、b较小,麦茬覆盖率越高,则该区域的r、g、b分量值就越低。

(3)土壤、麦茬等非植物背景的红色分量占主导地位,而植物部分的绿色分量g占主导地位,从而为植物与非植物背景的识别提供了很好的依据。

(4)植物部分的(g-b)的值比非植物部分稍高,而非植物部分的(r-g)的值稍高于植物部分,但差别都不明显,而且偏差相对较大,不太适合于背景分割。

(5)植物部分的(g-b)/|r-g|值高于非植物部分,且差别比较明显,所以(g-b)/|r-g|值也是背景分离的一个非常有用的颜色参数。但是(g-b)/|r-g|的值计算比较麻烦,尤其是当(r-g)的值较小时,(g-b)/|r-g|就会变得很大,从而导致其偏差较大,不利于背景分割。

(6)植物部分的过绿特征(ExcessGreen,2g-r-b)大于土壤等非植物部分,非植物部分的过绿特征值一般小于等于零,而植物部分的过绿特征值一般大于等于0.20,且过绿特征的偏差都相对较小。因此,过绿特征是杂草图像中用于背景分离的很好的阈值参数[5]。

由表3可以得出以下结论:

(7)没有归一化的RGB值的偏差较大,主要是因为光照强度的变化所导致的。

(8)对于没有归一化的过绿特征(2G-R-B)而言,植物部分的值远大于零,而非植物部分的值在零附近。虽然植物部分与非植物部分的过绿特征的偏差都相对较大,但是两部分的过绿特征值相距甚远,几乎没有重叠现象,故由没有归一化的RGB值所产生的过绿特征同样可用于杂草图像的背景分割,并且计算简单,处理速度快。但光照强度的变化不宜过大。

由表4可以得出以下结论:

(9)植物部分的饱和度稍高于非植物部分,而且饱和度的偏差相对较大,两部分的饱和度值交迭严重,故饱和度在杂草识别中没有可以利用的信息。

(10)植物部分的亮度稍高于非植物部分,但差别甚微,而且相对偏差很大,不能用于杂草识别中的背景分割。

(11)植物部分的色度值远远高于非植物部分,土壤湿度增加时,其色度值略有增加,但幅度不大,而且色度的标准偏差相对很小,非植物部分与植物部分的色度范围几乎不存在重叠现象,故色度也是可以用于杂草背景分割的参数。

3结论

综上所述,(2g-r-b)、(2G-R-B)、色度H三种颜色特征值都为杂草与土壤背景提供了足够的对比度,有利于杂草图像的背景分割。本文在图像处理试验中发现,对于由没有归一化的RGB分量所产生的过绿特征(2G-R-B),在室内光照强度相对比较稳定的条件下,在杂草与土壤背景之间的反差很大,因而可以用于杂草图像的背景分割,而且在这种情况下一些图像由彩色图像转成灰度图像的处理效果比采用(2g-r-b)颜色特征值的处理效果更好,结合计算机系统中采用的真彩色24位bmp图像文件格式考虑,采用(2G-R-B)颜色特征值计算简单,处理速度快,可以很好的将彩色图像转成灰度图,并且为下一步的图像分割作好了准备。

本系统软件通过提取图像中每一个像素的R、G、B三个分量值计算出(2G-R-B)颜色特征值,将彩色图像转变成灰度图像显示,因而可以利用图像的(2G-R-B)颜色特征值进行下一步灰度图像的阈值分割。

参考文献:

[1]应义斌,饶秀勤.机器视觉技术在农产品品质自动识别中的应用[J].农业工程学报,2000,16(1):4~17.

[2]何东健,杨青等.实用图像处理技术[M].西安:陕西科学技术出版社,1998.

[3]FuKS,MuiJK.Asurveyonimagesegmentation[J].PatternRecog,1981,13(2):3~16.

篇5

关键词:OpenCV;视频处理;人流统计

中图分类号:TP311文献标识码:A文章编号:1009-3044(2010)16-4485-02

The Design of Video Human Counting System Based on OpenCV

ZHU Jun-jun, CHENG Tao, DU Ming-ming

(College of Computer Science, Sichuan normal University, Chengdu 610101, China)

Abstract: As is researched that, based on the video of human counting, the application is used widely in all areas. For example, in the giant supermarket if they use this software, it can help them to make good choices of sales and other decisions. For this kind of usage, this paper which is based on Graphics and Images and Mathematics and other relative subjects, using the tool of OpenCV,is designing a system of basing the video of human counting.

Key words: OpenCV; video processing; human counting

1 视频的人流计数系统概述

1.1 应用背景

如今体育场,剧院等大型的室内建筑都有统计室内人数的需求,各大超市也有记录日人流量用以市场分析的需求。本项目正是为了解决以上需求而做的一个探索性的人流计数程序的设计开发。

1.2 解决方案

本项目采集通道处人流视频,通过对人流视频进行智能分析得出一段时间内该通道口的人流量。本项目将利用开源计算机视觉库OpenCV,开发出一套windows平台上的人流计数软件。

1.3 开发环境

1) 操作系统:Windows XP;

2) 开发工具:Visual Studio 2005,OpenCV;

3) 其他工具:SVN。

1.4 开发目标

开发目标是:开发出一套稳定,高效,使用方便,准确率达到90%以上的人流计数软件。

2 算法设计

算法的功能目标是计算感兴趣区域二值图像上的人数。本文档设计了2个算法,程序编码使用算法一。

2.1 不变步长检查

算法的已知量:二值化图像数据(包括数据,高度h,宽度w,单位picel),图像实际宽度(单位cm)。可变输入参数:检测实际步长L(单位cm),有效覆盖率阈值 P,有效人宽度阈值范围(a,b,单位cm),如图1所示。

2.2 检测原理说明

1) 由二值化图像的宽度除以图像实际宽度,可得picel/cm。

2) 由检测步长L乘以picel/cm,可得检测象素步长K。

3) 由有效人宽度阈值范围(a,b)和picel/cm有效人宽度阈值范围(A,B)单位picel。

4) 将二值图像划分成若干个h * K的矩阵,计算矩阵元素和sum。

5) 由矩阵和sum计算矩阵覆盖率,如果覆盖率大于有效覆盖率阈值P,记二值图像宽x象素处被覆盖。

6) 记录连续覆盖宽度(w1,w2),再由(A,B),计算出人数。

3 界面设计

3.1 界面设计

参数设置:

1)视频的长度和宽度(W,L)。

2)采样矩阵相对于视频左上角的偏移(x,y),采样区域的长度和宽度。

3)采样区域的物理宽度。

4)检测频率。

5)检测步长。

6)有效覆盖率。

7)有效人宽度阈值范围(a,b)。

4 程序流程图

程序流程图如图2所示。

5 软件模块

软件模块如图3所示。

6 功能实现

6.1 确定检查区域

通过鼠标画一条直线作为检测区域矩形的对角线,直线的起点和终点分别是:P1,P2。设检测区域矩形的左上角的坐标为M,P1与P2的差为Δx,Δy。结果如图4所示:

M.x = P1.x(Δx>0) M.y = P1.y (Δy>0)

M.x = P1.x + Δx (Δx

检测区域矩形可以由四元组(Offset_x,Offset_y,w,h)表示,Offset_x是相对于原始视频x方向上的偏移,Offset_y是相对于原始视频y方向上的偏移,w是检测区域矩形的宽度,h是检测区域矩形的高度。设视频左上角的坐标为V。

则:Offset = M-V

w = 对角线(P1,P2)在x方向上的投影。

h = 对角线(P1,P2)在y方向上的投影。

本步骤得到的最终结果是四元组(Offset_x,Offset_y,w,h),有四元组和原始视频帧数据可以以6.2所示分离出检测区域图像数据。

6.2 分离检测区域图像数据

在这个步骤中要把检测区域的图像数据分离出来,存放在一片独立连续的内存中。执行本步的条件:

1) 视频当前帧数据:BYTE* pFrame;

2) 当前帧宽度:W;高度:H;

3) 深度:Depth=24,32;

4) 检测区域矩形可以由四元组(Offset_x, Offset_y, w, h)。

检测区域的图像数据为:

pFrame [W * Depth * Offset_y * i + Offset_y * Depth ],0

在程序设计时使用OpenCV的感兴趣区域ROI来提取图像数据。

6.3 检测区域图像数据预处理

将得到的差值图二值化,绝对值大于常数C的置为1,其它置为0,图像保存在一块连续的内存中。通过显示二值化后的图像来验证本步骤的正确性。二值图反应图像的变化。

6.4 检测变化区域

本步骤的目标是记录覆盖区域,以x表示覆盖区域距离采样矩阵左端的距离,L表示覆盖区域的长度。一个覆盖表示为typedef struct{int x, int length} COVEREDAREA。将COVEREDAREA记录到一个CList m_CoveredAreaList链表中,结果如图5所示。

在每一个检查周期中判断m_CoveredAreaList的覆盖区域是否变为非覆盖区域,如果是,则将人数计数值int m_TotalPeople增加1,并从m_CoveredAreaList中移除该覆盖区域记录。

7 结束语

经过实践证明,本程序能够按照相关的要求检测出人数的统计,在稳定的情况下能够达到90%的准确程度。

参考文献:

[1] Zhang Z Y. A flexible new technique for camera calibration. IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(11):1330-1334.

[2] 陈磊.计算机视觉类库OpenCV在VC中的应用[J].微计算机信息,2007,4-3:209-210.

[3] 陈祖爵,陈潇君,何鸿.基于改进的混合高斯模型的运动日标检测[J]中国图像图形学报,2007(12):1585-1589.

[4] 文濒,陈红涛.基于减背景与对称差分的运动日标检测[J].数采与监测,2007(23):99-101.

篇6

在过去的几年里,高质量的显示技术发展越发迅猛,目前双目视差信息、人类视觉系统的三维深度感知越来越引起学者的研究兴趣。双眼视差的呈现方法有多种,主要包括三大类:立体显示、全息显示和立体面显示。而立体显示技术比基于全息或容积的方法更为成熟和广泛应用。创造立体显示的方法有多种,包括立体空间复用和时分复用技术,而且在显示时,还有不可忽视的人的因素。本书针对立体显示技术中人的因素提供一份详细分析,使其在设计和使用三维显示时能够被充分考虑。

本书分为3部分,共8章:1.3D立体显示中人的因素简介:主要是对相关背景信息与知识的简单概述,以及对全书结构的说明。第1部分 背景信息,包括第2-3章:2.人类双目视觉基础:包括双目视察、视觉竞争、双目视察梯度、视觉通路等术语和概念的介绍;3.创建立体显示:包括空间复用和时间复用的概念。第2部分 立体显示中影响立体深度知觉的因素:包括第4-9章:4.低级因素:包括双目串扰、时空复用、调节辐辏冲突等因素的介绍;5.低级因素(续):包括瞳孔亮度的差异、两眼间的差异对比与简单总结;6.语境因素:包括时空频率的影响、真实环境中的视觉与距离变化、立体显示环境中视觉的差异等内容;7.语境因素(续):包括知觉的恒常性,分别是大小、远近、速度、深度的恒定,以及环境的因素;8.高级因素:包括运动视差和航向控制、运动视差和双目视察的冲突、直观推理等内容;9.高级因素(续):包括手/手臂跟踪和本体、空间心理模型和工作记忆、交互式立体显示和空间推理,最后进行了总结。第3部分 立体显示设计的建议,含第10章:10.对全书进行了简单总结,并提出若干立体显示设计的建议。

本书通过对立体显示相关文献及应用进行总结,分析了从人类视觉角度对立体显示的影响,并指导读者如何从人的视觉/人的角度进行立体显示的设计。全书条理清晰,逻辑性很强,由浅入深,易于初学者迅速了解主要概念。本书适合计算机视觉、模式识别、生物视觉等领域的学者、硕士生及以上水平的读者阅读。

李亚宁,硕士研究生

(中国科学院自动化研究所)

篇7

关键词:嵌入式;图像处理系统;软件设计

中图分类号:TP3文献标识码:A文章编号:1674-6708(2016)156-0080-02

DOI:10.16607/ki.1674-6708.2016.03.049

在很多领域中,由于科学技术的不断发展,不可避免的需要使用大量的数据,面对这些算法复杂的数据,传统的图像处理系统已经不能满足要求。嵌入式图像处理系统在通讯、医药等方面都发挥着非常重要的作用,正是因为各个领域获得的图像数据越来越多,如何对图像数据快速准确的进行处理显得格外重要。所以需要设计出更优化的图像处理。

1嵌入式系统概述

1.1嵌入式系统的概念

嵌入式系统是建立在计算机技术基础上的应用型专用计算机系统,其软件和硬件都可以剪裁,系统对成本、功耗、功能都提出了更高的要求,具有可靠性强、体积小等优点,可以实现对其他设备的监视、控制和管理。随着嵌入式系统的不断发展,嵌入式系统已经渗透到人们的生活中,无论是在工业、服务业还是消费电子等领域都得到了广泛的应用。

1.2嵌入式系统的特点

与普通的计算机系统相比,嵌入式系统的专用性更强,一般是面向特定运用的,嵌入式处理器一般应用在用户设计的特定系统中,集成性高、体积小、功耗低,不仅具有方便携带的优点,操作系统更是实时操作的,可以满足实时性较强的场合要求。将嵌入式系统运用到应用程序中,在芯片上直接运行而不需要操作系统,未来可以充分利用更多的系统资源,用户需要选择RTOS开发平台,保障软件的质量。嵌入式系统主要包括硬件系统和软件系统,其中硬件系统是基础,软件系统是灵魂,复杂程度非常高。

2系统软件设计

基于RF5软件系统总体设计:嵌入式图像处理系统和传统处理系统一样,主要包括硬件和软件两个方面,硬件包括系统的硬件平台,软件包括嵌入式操作系统和图像处理算法两个方面。其中硬件平台又包括图像储存模块、通信模块和显示模块等,主要是为系统的软件系统提供支持。在图像处理过程中,硬件系统可以为其提供计算、显示、存储等条件[1]。RF5是以DSP和XDAIS为基础的代码参考框架,在DSP软件的设计和开发中具有重要的作用,参考框架在整个程序中具有非常重要的作用,是整个运用应用程序的蓝本。RF5的数据处理元素包括通道、单元、任务和XDAIS算法,这4个元素之间具有紧密的联系,独立又联系。嵌入式操作系统是整个系统的核心系统,提供了包括图形处理任务管理在内的各项管理,经过硬件的初始化、图像信息存储、图像信息显示等过程实现图像处理和存储。

3软件模块化程序实现

3.1初始化模块

软件系统的初始化模块主要包括处理器、RF5模块化初始化、图像处理算法、视频捕获、视频显示通道等。处理器和系统板初始化是指设备重启之后,通过软件配置的方式对设备进行配置和选择。系统在进行工作的时候,初始化模块是其执行的第一个任务,执行完初始化模块之后,程序的控制权将会转变到调度程序中,由调度程序来调度接下来的任务。

3.2视频捕获和显示模块

3.2.1视频捕获的实现

视频捕获主要负责将外部的视频解码器解码生成的数字视频信号采集收集起来,并且这个采集的过程非常方便,可以实现实时采集,最终形成的图形处理也是可以实时处理的,可以随时随地对大数据的图像进行处理,这也是其最大的优点和特点。采集到的数字视频信号进入到系统外扩的存储器中,从而实现视频的捕获。视频采集可以自动采集,当单元进入自动采集状态,完成了图像的采集之后,视频端口都会向系统自动发出中断请求,中断服务程序便开始发挥自身的功能,对图像的存储区进行连续更新,图像存储区一旦更新之后,图像采集系统就会采集下一个图像数据,最终进入一个循环。当视频端口的FIFO装满了采集的数据之后,会发生中断信息,进入EDMAISR中断服务程序将视频数据送入到SDRAM中[2]。

3.2.2视频显示的实现

视频显示的实现是通过视频图像显示模块来实现的,视频图像处理模块处理后的图像经过显示模块处理,处理之后将图像编码成数字视频流,标准数字视频流经过系统编码转化为虚拟视频信号,经过解码器之后视频流就变成了标准的模拟视频信号,分别经过EDMA控制器和EDMAISR之后最终进入到视频端口的缓冲区中,经过缓冲器之后,信号会使EDMA中断,送入新的图像信号,并在显示器上显示出来,视频显示的流程。输出作用在外部编辑器中。

3.3图像处理模块

图像处理模块比较灵活,是指在嵌入式的环境下实现对图像的处理。在图像处理系统中,又包括系统功能模块和图像增强模块。系统功能中包含图像增强功能,除了图像功能之外,还包括图像的几何变换、形态运输和图像分析。在图像增强模块中又包括图像的预处理和边缘检测、直方图修正、中值滤波、灰度变换调整,而图像预处理又包括图像平滑和图像锐化。图像平滑就是消除噪声对图像造成的影响,图像平滑的处理是通过高斯低通滤波法来实现,这样做虽然可以消除图像受到噪声的影响,但同时也存在着一定的弊端,图像经过处理之后会变得模糊。图像锐化的目的就是让模糊的图像重新变得清晰。图像模糊是由于图像受到平均或积分运算而造成的,图像锐化就是对其进行逆运算,重新使图像变得清晰[3]。

4结论

嵌入式图像处理系统的软件系统主要包括初始化模块、视频捕获模块、视频显示模块和图像处理模块,在确定了整个软件系统的程序流程之后,就可以分别设计纷纷模块的程序,最终完成整个软件系统的设计。

参考文献

[1]吴锡强.探析嵌入式图像处理系统的设计与实现[J].计算机光盘与软件,2015,12(3):307-309.

[2]蒋立丰.嵌入式图像处理系统的设计与研究[D].东华大学,2013,22(21):11-13.

篇8

图像处理、图像分析、机器视觉和计算机视觉是彼此紧密关联的学科,其特点均具有很强的理论性和实践性。如果在教学中不重视实践教学或实践教学手段不力,都不利于学生创新能力和动手能力的培养。高校教师应重视理论教学的同时,更要重视实践教学,关键是要找到强有力的教学方式和教学手段,找到恰当的图像处理软件。Matlab科学计算软件具有丰富的图像处理工具箱[1-2],目前被广泛1应用于图像处理的教学中。但是,机器视觉课程具有很强的理论和实践性,一些功能齐全的机器视觉软件,如Halcon和Open CV等软件的出现,为提高这些课程的实践教学效果提供了新的手段。本文将探讨如何应用Halcon软件改进实验教学方式和手段,并结合实例说明Halcon在机器视觉等课程教学中的应用。

1 机器视觉硬件系统概述

机器视觉系统[3]是基于机器视觉技术为机器或自动化生产线建立的一套视觉系统,图1为实验用机器视觉系统,包含摄像机、照明光源、镜头、图像采集卡和计算机组成。

2 Halcon概述

Halcon 软件是德国MVtec公司开发的一套完善的标准的机器视觉算法包[4],是得到广泛应用的机器视觉集成开发环境,提供了1100多种具备突出性能控制器的库,如图像的运算、图像的几何与数学变换、滤波、色彩分析、Blob分析、形态学计算分析、3D校正等。Halcon软件保障与硬件无关,支持大多数图像采集卡及带有Directshow和IEEE 1394驱动的采集设备。

Halcon软件包含一个功能强大的交互式软件接口HDevelop,提供一个通用的浏览界面,访问不同的图像采集设备,支持Windows、Linux和Solaris运行环境,为用户搭建了快速有效的图像处理程序开发平台。它甚至可以从图像采集设备中实时捕捉图像。HDevelop拥有很多数据和图像检查的图形工具。它的图形用户界面支持多种显子语言。HDevelop具备语法检查,语法凸现,函数参数的合适取值,后续操作和替代算子建议,程序调试,完整的在线帮助等功能。Halcon软件还可以导出以C++、C#、C、Visual Basic或者VB.NET程序,以嵌入到其他程序中。

3 实验教学应用实例

在机器视觉等课程的理论教学中,我们的教学目的是让学生掌握相关的理论知识,在机器视觉等课程的实验教学阶段,我们更要培养学生的算法编程能力和实践应用能力。利用Halcon软件的高度交互式编程环境HDevelop,能编译和测试视觉处理算法,可以方便查看处理结果。再者,Halcon软件自带许多图像处理与机器视觉的相关案例,涵盖了图像处理与机器视觉基础知识的大部分内容[4]。我们在教授学生理论知识的同时,结合案例的讲解,使学生在掌握理论的同时熟悉实践过程,进而培养学生的编程实现能力。因此选择Halcon软件作为教学软件,成为培养学生图像处理和视觉处理算法编程能力和实践能力的又一重要手段。由于篇幅限制,这里仅以利用Blob分析算法实现车牌识别的实例来说明 Halcon软件在机器视觉与数字图像处理等课程教学中的应用。

Blob分析算法实现车牌定位识别程序如下:

read_image(Image,'lisence')

fill_interlace(Image,ImageFilled,'odd')

threshold(ImageFilled,Region,0,90)

connection(Region,ConnectedRegions)

select_shape(ConnectedRegions, SelectedRegions,'width','and',30,70)

select_shape (SelectedRegions,Letters, 'height','and',60,110)

sort_region(Letters,SortRegions,'upper_left','true','column')

read_ocr_class_mlp('Industrial_0-9A-Z.omc',OCRHandle)

do_ocr_multi_class_mlp(SortRegions,ImageFilled,OCRHandle,Class,Confidence)

area_center(SortRegions,Area,Row, Column)

disp_message(3600,['The result is:'], 'window',200,150,'yellow','false')

for Index:=0 to 6 by 1

disp_message(3600,Class[Index], 'window',200,300+20*Index,'yellow', 'false')endfor

上面程序中,利用read_image算子读入要识别的车牌图像,命名为Image,如图2所示;通过fill_interlace算子修改在采集图像过程中造成的两个半幅图像拼接的问题。接着,用threshold算子对图像进行阈值分割处理,分割出含有车牌的图像区域,灰度阈值范围为0~90;接着用connection算子将选择出来的区域进行相联,形成相连区域ConnectedRegions,如图3所示。处理后的图像除了车牌区域使我们的感兴趣区域外,其他的都为干扰区域,于是用算子select_shape通过限定width和height将车牌区域选择出来,如图4所示。车牌区域共有7个,从左至右排序后,利用现有Industrial_0~9A~Z字符库对车牌7个部分进行识别,用到算子do_ocr_multi_class_mlp。识别之后,利用for循环将结果用浅黄色字体显示在窗口中,实验结果如图5所示。

从上面的车牌识别实例可以看出,HDevelop交互编程环境中的函数概念清楚,用法明了,应用简单。由于每一个HDevelop算子的各个参数都可以在编程过程中及时调整和编辑,这样我们在实验过程中对程序进行单步调试,讲解重要算子的选择、调试和参数编辑,让同学们看到算法运行的每一个步骤,这样同学们就能很快掌握相关知识点。Halcon具备可实时查看图像属性的交互对话框,来查看程序中的参数设置,灰度直方图,特征值柱状图,放大镜和特征检测等。随着学生对HDevelop编写算法的掌握,后续的教学部分可以从HDevelop导出算法代码并集成到应用程序中,例如生成用户界面等,这样同学们就可以开发机器视觉程序,添加用户界面,集成调试生成可执行的应用程序。

篇9

【摘要】2016年是“十三五”的开局之年,也是全面建成小康社会决胜阶段的开局之年,设施农业产业将面临更多的机遇和挑战。在以往的研究中,针对物联网对设施农业影响的研究比较多,本文将以人工智能在设施农业领域应用为视角,分析人工智能对设施农业的潜在发展优势。

施农业是集种植、农业装备等多领域为一体的系统工程,是一种在人为可控环境下进行的高效农业生产方式,具有成套的生产技术、完整的设施装备和生产规范[1]。近几年,随着信息技术的发展,物联网技术逐渐被应用到农业生产和科研中,这是现代农业依托新型信息化应用的一次进步[2]。本文结合人工智能研究成果,着重介绍人工智能技术在设施农业种植领域方面的应用前景,根据设施农业产前、产中、产后3个阶段,对现有研究成果进行了阐述。

人工智能概述

“人工智能”一词是1956年在Dartmouth学会上提出。从那以后,研究者们发展了众多理论和原理,人工智能的概念也随之扩展。人工智能(Artificial Intelligence),英文缩写为AI,它是研究用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的新型科学技术[3]。

作为计算机科学的一个重要分支,人工智能技术着眼于探索智能的实质,模拟智能行为,最终制造出能以人类智能相似的方式做出反应的智能机器。著名的美国斯坦福大学人工智能研究中心尼尔逊教授对人工智能下了这样一个定义:“人工智能是关于知识的学科,即怎样表示知识以及怎样获得知识并使用知识的科学。”而另一位美国麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”@些说法反映了人工智能学科的基本思想和基本内容。人工智能自诞生以来,理论和技术日益成熟,应用领域不断扩大,可以设想,未来应用了人工智能的科技产品,将会是人类智慧的“容器”。

随着人工智能技术的日益成熟,人们意识到人类已经具备了设计和建造智慧型设施农业所需的硬件和软件技术条件,结合设施农业高投入高产出,资金、技术、劳动力密集型的特点,完成工厂化农业生产已经不是梦想[4]。依靠人工智能技术,作物可以在适宜的温度、湿度、光照、水肥等设施环境下,生产优质、高产的农产品,摆脱对自然环境的依赖,实现设施生产的高度智能化,提高农业生产的效率,降低劳动成本[5]。

人工智能在设施农业领域的应用

人工智能技术在产前阶段的应用

在设施农业产前阶段,凭借人工智能技术可对土壤、灌溉水量需求、作物品种质量鉴别等方面做出分析和评估,为农民做出科学指导,对后续的农业生产起到很好的保障作用。

土壤分析是农业产前阶段最重要的工作之一,是实现定量施肥、宜栽作物选择、经济效益分析等工作的重要前提[6]。在土壤分析等农业生产智能分析系统中,应用最广泛的技术就是人工神经网络(简称ANN)。ANN是模拟人脑神经元连接的,由大量简单处理单元经广泛并互连形成的一种网络系统,它可以实现对人脑系统的简化、抽象和模拟,具有人脑功能的许多基本特征。目前可以通过该技术分析土壤性质特征,并将其与宜栽作物品种间建立关联模型。土壤性质特征的探测主要是借助非侵入性的探地雷达成像技术,然后利用神经网络技术在无人指导的情况下对土壤进行分类研究,进而建立起土壤类别与宜栽作物的关联关系;土壤表层的黏土含量也可通过人工智能方法预测,该技术通过分析电磁感应土壤传感器获取的信号,使用深度加权方法从中提取土壤表层质地信息,然后使用ANN预测土壤表层的黏土含量。

传统农业对灌溉用水的使用量往往依靠经验,无法根据环境变化进行精确调节,对多目标灌溉规划问题也无能为力。人工智能技术可帮助人们选择合适的水源对作物进行灌溉,保证作物用水量,大大减轻灌溉问题对作物产量造成的不良影响。在美国,有专家研制出一个隐层的反馈前向ANN模型和一个位于科罗拉多州地区阿肯色河流域的消费使用模型,使用它们可勘察区域气候变化对灌溉用水供应和需求可能产生的影响。在灌溉项目研究中,为了选择最好的折中灌溉规划策略,还可基于多目标线性规划优化,利用神经网络将非支配的灌溉规划策略加以分类,将这些策略分为若干个小类别。结果表明,在对多目标灌溉规划问题加以建模时,综合模型方法是有效的。

人工智能技术在产中阶段的应用

在设施农业产中阶段,主要应用是农业专家系统、人工神经网络技术、农业机器人等。这些技术能够帮助农民更科学地种植农作物并对温室大棚进行合理的管理,指导农民科学种植,提高作物产量。这些人工智能技术的使用推进了农业现代化的发展,提高了农业生产的效率,使农业生产更加机械化、自动化、规范化。

专家系统是指应用于某一专门领域,拥有该领域相当数量的专家级知识,能模拟专家的思维,能达到专家级水平,能像专家一样解决困难和复杂问题的计算机(软件)系统。国际上农业专家系统的研究始于20世纪70年代末期的美国,1983年日本千叶大学研制出MTCCS(番茄病虫害诊断专家系统),到了20世纪80年代中期,农业专家系统不再是单一的病虫害诊断系统,美国、日本、中国等国家也相继转向开发涉及农业生产管理、经济分析、生态环境等方面的农业专家系统。农业科研人员把人工智能中的专家系统技术应用到农业生产中,开发出了农业专家系统。它可代替农业专家走进生产温室,在各地区具体指导农民科学种植农作物,这是科技普及的一项重大突破。

在设施生产中可以使用机器人来代替农民进行作物采收,不仅可以降低劳动成本,也可以提高工作效率。Wolfgang Heinemann等人研发出的具有独特设计结构的采收机器人,该机器人可以在无需人类干扰的情况下自动采收白芦笋。为了保证机器人能够精确行进,它使用了2个独立的速度控制轮和级联控制结构(其中包含了一个内部的定位误差控制器和一个外部的横向偏置控制器)。借助PID算法①,机器人系统可以分析自己的运动轨迹,优化驱动电机的控制参数,保证系统能够稳定自主的运行。

在中国,应用人工智能技术的智能杂草识别喷雾系统已经得到了长足发展。图像分析系统通过分析田间图像的颜色模型,根据色差分量②颜色特征实现杂草实时识别,并基于Canny算子对识别到的杂草进行边缘检测,提取其特征参数,配合超生测距等技术可以精确控制喷头位置及用药量[7]。该技术的应用可以大大提高除草剂的经济性,对保护环境也大有益处。

人工智能技术在产后阶段的应用

人工智能技术在设施农业产后阶段也有相当多的应用前景。

在农产品分类方面人工智能技术能提供很好的支持。张嘏伟[8]等提出了一种基于图像识别的番茄分类方法,该方法根据番茄的表面缺陷、颜色、形状和大小,使用遗传算法训练的多层前馈神经网络对番茄进行分类,并与BP训练神经网络③进行了比较。结果表明,遗传算法在训练次数和准确性上都具有优势。谢静[9]等对图像识别分类中的图像预处理方法进行了研究,包括图像噪声去除方法、图像分割方法、边缘提取方法等。提出了使用改进的canny算法④和当量直径法相结合来检测水果大小的新思路,并使用模糊聚类方法处理gabor滤波器提取水果表面缺陷特征,对水果表面缺陷进行了分类。

随着社会的发展,人民生活水平的提高,广大消费者及国家都对食品安全问题越来越重视,农产品质量检测方法也在不断进步。图像识别、电子鼻等技术都应用在了农产品检测中。李洪涛[10]等利用人工嗅觉装置,模拟人的嗅觉形成过程分析、识别和检测农产品在腐败过程中释放的不同特征气体。其制作了小型化的传感器阵列并利用半导体制冷片搭建了一个PID温度控制系统,保证传感器正常工作的温度及湿度。在当前技术的发展下,科学家们以彩色计算机视觉系统为重要技术手段,综合运用图像处理、人工神经网络、遗传算法、模拟退火算法以及决策树、专家系统等人工智能领域的技术,研究出了众多实现农产品品质检测和自动分级的新方法。

草莓、葡萄等农产品很容易破损和受伤,依靠人工采摘和搬运,不仅增加了劳动成本,也影响农产品采摘后的品质。结合磁流变(MR)流体技术,工程师们设计出了一种可用于搬运农产品的磁机器人手爪,该手爪经过精确设计,可以搬运胡萝卜、草莓、西兰花和葡萄等不同形状食品,而且不会在食物表面留下任何淤痕和凹陷。为了让机器人手爪更为快速、准确地工作,在磁流变手爪的基础上结合力传感技术开发出了更为灵活、智能的新型手爪。该手爪可在410~530 ms内抓握50~700 g重量的农作物,还能显著减少细菌的交叉感染。

人工智能发展前景

近年来,人工智能技术已经取得了长足的进步,语音识别、自然语言识别、计算机视觉、自动推理、数据挖掘、机器学习以及机器人学都在蓬勃发展。人工智能的未来就是在智能感知的前提下,结合大数据技术自主学习,椭人们做出决策、代替重复性工作。在农业方面出现全天候全自动平台,实现农业生产的全自动化[11]。物联网技术在设施农业中已经得到普及,在温室大棚中的大量智能传感器是机器感知的基础,而感知则是智能实现的前提之一,通过感知,农业数据源源不断地汇集在一起。云计算的发展为大数据存储和大规模并行计算提供了可能[12],而数据则是机器学习的书本。设施农业是物联网、云计算、人工智能三大技术结合应用的领域之一,它们的结合颠覆了传统农业生产方式。

面对众多的新技术、新成果,把它们投入到生产中去才是关键。如何让技术能够适应中国复杂的农业生产环境,同时还要面对不同知识水平的用户,这些都是人工智能技术、云计算技术等高新技术在农业生产中所面临的问题。设施农业高产出高投入的特点,正适合应用这些新技术,这样既可以让新技术有实践的机会,又可以让其他涉农用户对新技术有直观的感知,这对技术进步和技术推广都很有帮助[13]。

人工智能技术虽然前景光明,但其应用的研究才刚刚起步,离目标还很远。未来,人工智能技术可以更好地为人们服务,改善人们的生活,并带来巨大的社会和经济效益[14]。在人工智能的引领下,农业已迈入数字和信息化的崭新时代,借助其技术优势来提高农业生产的经济效益,是全面实现农业生产现代化、智能化、信息化的必由之路。

参考文献

[1]李雪,肖淑兰,赵文忠,等.信息技术在农业领域的应用分析[J].东北农业大学学报,2008,39(3):125-128.

[2]施连敏,陈志峰,盖之华,等.物联网在智慧农业中的应用[J].农机化研究,2013(6):250-252.

[3]刘现,郑回勇,施能强,等.人工智能在农业生产中的应用进展[J].福建农业学报,2013,28(6):609-614.

[4]姜芳,曾碧翼.设施农业物联网技术的应用探讨与发展建议[J].农业网络信息,2013(5):10-12.

[5]陈超,张敏,宋吉轩,等.我国设施农业现状与发展对策分析[J].河北农业科学,2008,12(11):99-101.

[6]邹承俊.物联网技术在蔬菜温室大棚生产中的应用[J].物联网技术,2013(8):18-24.

[7]石礼娟.基于可见光/近红外光谱的稻米质量快速无损检测研究[D].武汉:华中农业大学,2011.

[8]张嘏伟.计算机视觉系统在番茄品质识别与分类中的研究[D].保定:河北农业大学,2005.

[9]谢静.基于计算机视觉的苹果自动分级方法研究[D].合肥:安徽农业大学,2011.

[10]李洪涛.基于农产品品质检测的专用电子鼻系统的设计与研究[D].杭州:浙江大学,2010.

[11]张震,刘学瑜.我国设施农业发展现状与对策[J].农业经济问题,2015(5):64-70.

[12]施连敏.物联网在智慧农业中的应用[J].农机化研究,2013(6):250-252.

篇10

关键词 计算机应用 电子摄像头技术 网络传输

中图分类号:TP391.4 文献标识码:A

1 电子摄像技术概述

电子摄像系统已广泛应用于军用及民用测绘系统中,但是效果受到其载体不同时刻姿态变化或震动的影响。当工作环境比较恶劣,尤其是在航空或野外操作时,支撑摄像机平台的震动会引起图像画面的抖动,令观察者视觉疲劳,从面产生漏警和虚警。所以在运行中,如何稳像成为十分重要的问题,特别是在长焦距、高分辨力的监视跟踪系统中更加突出。 电子摄像表现为实用性强、体积小巧等特点,它利用计算机、图像处理、模式识别和计算机视觉技术,在视频源的关键信息提取和分析、检测和处理异常信息以及监测现场强大数据的处理。电子摄像系统是视频监控系统的直接体现和发展趋势。

纽约市政大楼于二十世纪九十年代,安装了第一套电子摄像系统用于监控,并由专门的人员负责监控屏幕,系统仅局限于整个建筑。本系统突破了完全由员工在每个监视处点对点的传统模式,并将监控任务从复杂的安全巡逻、路线、规章制度等等转变成在控制室和几个监视屏幕前完成。这是开始的视频监控时代。电子摄像系统在短时间内,从最早的模拟监控到几年前数字监控到现在蓬勃发展的网络视频监控,发生了翻天覆地的变化。在IP技术逐步统一的今天,我们有必要了解电子摄像系统的发展历史。从技术的角度来看,电子摄像系统开发分为第一代模拟电子摄像系统(CCTV),第二代是基于“PC +多媒体卡”的数字视频监控系统(DVR),第三代全电子摄像系统基于IP网络(IPVS)。

2 电子摄像技术存在的缺陷分析

近年来,随着国民经济的快速增长,银行、电力、交通、安全、军事设施和其他领域的安全报警系统,要求越来越高,视频监控在生产和生活的所有方面有着非常广泛的应用。智能视频监控系统正成为越来越多的国内外学者关注的焦点。视频监控系统涉及到许多领域,在交通运输、军事和其他地方已经取得了一些研究成果。尽管监控系统已广泛存在于银行、购物中心、公共场所,如车站、交通路口,实际监测任务仍需要更多的人工完成,现有的视频监控系统通常是记录的视频图像,提供的信息是没有任何解释的视频图像,只能用作证据,没有充分发挥监控的实时性和主动性。为了达到实时分析、跟踪和监控对象,并提示当异常事件发生时作出报告,为政府主管部门正确的行动提供保障,“智能”视频监控尤为重要。“智能监控系统可以使摄像机捕获的信息通过计算机网络传递到整个系统软件,实现远程智能的监控。

传统的基于“摄像机-图像采集卡-计算机”模式的稳像系统、图像检测和匹配算法全部由计算机以软件方式实现。 尽管当今计算机的性能很高,能够部分满足单传感器电子稳系统的实时处理要求,但在以下几个方面有着难以解决的问题:首先,其固有的串行工作方式使得单计算机难以适应其于多传感器视频处理系统的实时稳像,阻碍了在实际中的应用,传统的图像采集卡中能将采集图像数据实时传输给计算机,而不能传输给标准接口的视频监视设备,很多应用场合对听要求很高。因此,研制专用的电子稳像平台,既能实时地高速获取视频数据,又能将数据实时地传后续的图像处理系统,既有实际意义又有工程价值。智能电子摄像头监控系统在许多场合发挥重要的作用,不断发展更多的智能。然而,在努力发展其智能的同时,系统可靠性的问题也不容忽视。只有可靠的视频监控系统,才可以准确地发现危险情况和采取措施的时间。

3 电子摄像技术的应用分析

电子摄像头智能分析技术和产品现在在高端安全监控市场已经应用多年。在机场、监狱、军事基地和其他大型基础设施监测有成功的案例。在一些大型的基础设施,如机场、周围对象太分散,一个或多个人可以完成监控周边。这个系统将智能视频分析单元,在前面的摄像头,实时视频分析单元,通常嵌入式产品、特点的分析和结果在需要上传到监控中心。这是一个典型的分布式系统架构。当我们做智能视频图像分析的固定场景,当这个被广泛使用,该系统具有实时分析,分析结果和速度的算法不受交通联系。另一种系统通常是集中在个人计算机终端算法,监控中心可以整合更多算法同时运行。一般来说,一个算法为一个特定的内容分析。和个人电脑可以集成各种算法,综合分析的内容将更加丰富,效果更好。在监控系统技术中区别不同的产品,系统可以根据分析的内容使用不同的算法和不同的输出结果。

从加入WTO以来,智能电子视频分析技术得到了快速的发展,它的使用是慢慢渗透到各种行业。智能电子相机应用程序通常可以分为安全相关应用程序和非安全相关应用两大类。比如:有函数的视频分析摄像机、视频编码器可以充分发挥它的功能,它可以自动检测在某些地方进入或离开一个地区或一个特定时间的可疑对象。安全相关应用是目前市场上主要的智能视频应用程序。应用程序在安全领域安全部门主要是协助政府或其他机构改善户外大型区域安全保护的公共环境。

4 电子摄像技术的发展趋势

电子摄像技术在现代社会应用,已经达到一个相对稳定和成熟的系统模式。数字视频监控系统,视频监控和数字网络监控系统集成一体。目前的情况是,我们需要从以下几个方面来推动发展电子摄像技术。