计算机视觉的前景范文

时间:2024-01-04 17:48:29

导语:如何才能写好一篇计算机视觉的前景,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。

计算机视觉的前景

篇1

关键词:双目视觉;匹配算法;计算机视觉;立体匹配;相位一致性

1.计算机视觉系统分析研究

1.1计算机视觉技术及双目立体视觉

计算机视觉是通过计算机技术实现对视觉信息处理的整个过程,是一门新的学科。视觉是人们认知事物的重要途径,视觉是人们对视觉信息获取、处理和存储的过程。随着计算机技术的发展,信号处理技术的应用,人们通过照相机来把实际的事物拍摄下来转变为数字信息,并通过计算机信号处理技术队获取的视觉信号进行处理。计算机视觉技术对图像的处理分为获取图像、特征抽象选取、事物识别及分类和对三维信息的理解。获取图像主要是通过摄像机和红外线等技术对周围视觉事物进行获取,并通过计算得到和真实事物相应的二维图像,二维图像主要是数字图像。计算机视觉系统的最基本的功能是数字图像的获取。可以看出计算机视觉研究最基本内容是三维场景距离信息的获取。在计算机被动测量距离方法中,有一种重要的距离感知技术叫作双目立体视觉。双目立体视觉技术是其他计算机视觉技术无法取代的一种技术,对双目立体视觉技术的研究在计算机视觉技术和工程应用方面都是非常重要的。

1.2计算机视觉理论框架

第一个视觉系统理论框架的提出是以信息处理为基础,综合了图像处理和神经生理学等研究内容而建立的。这个视觉系统理论框架是计算机视觉系统的基本框架,与计算机视觉技术有着密切的关系。视觉系统的研究是以信息处理为基础的,从理论层次、算法层次和硬件层次3个层次进行研究。计算机理论层次主要是表达系统各个部分计算的目的和方法,对视觉系统的输入和输出进行规定,输入作为二维图像,输出是以二维图像为基础建立起来的三维物体,视觉系统的目的就是对三维物体进行分析和识别,通过计算对二维物置和形状进行重新建立。算法层次对计算机规定的目标进行计算,算法和计算机表达有关,不同的表达可以通过不同的算法进行实现,在计算机理论的层次上,算法和表达比计算机理论的层次要低。硬件层次是通过硬件来实现算法的一种表达方法。计算机理论层次在计算机信息处理中时最高的层次,取决于计算机的本质是解决计算机的自身问题,不是取决于计算问题的计算机硬件。要更好地对计算机系统和框架进行理解最好的方法就是要区分3个不同的层次,计算机理论的含义和主要解决的问题是计算机的目的,表达算法含义和主要解决的问题是实现计算理论的方法和输入输出的表达,硬件的实现的含义和主要解决的问题是如何在物理上对表达和算法进行实现。计算机视觉处理的可以分为3个阶段,对视觉信息的处理过程从最初的二维图像的原始数据,到三维环境的表达。第一阶段基元图的构成,基元图是用来表示二维图像中的重要信息,主要是图像中亮度变化位置及其几何分布和组织结构,图像中每点的亮度值包括零交叉、斑点、端点和不连续点、边缘等。第二阶段2.5维图描述,在以观测者为中心的坐标中,表示可见表面的方向、深度值和不连续的轮廓,基元是局部表面朝向离观测者的距离深度上的不连续点表面朝向的不连续点。第三阶段三维模型表示,在以物体为中心的坐标系中,有由体积单元和面积单元构成的模块化多层次表示,描述形状及其空间组织形式,分层次组成若干三维模型,每个三维模型都是在几个轴线空间的基础上构成的,所有体积单元或面积形状基元都附着在轴线上。视觉理论框架图如图1所示。

2.基于计算机的视觉立体匹配算法研究

视觉立体匹配算法是基于人类视觉系统的一种计算机算法。立体匹配算法作为计算机立体视觉问题研究的重点,快速地实现图像对应点的匹配来获得视差图是当今研究的热点问题。立体视觉匹配算法根据基元匹配的不同可以分为相位匹配、区域匹配和特征匹配3种,其中区域匹配算法可以减少计算负担,区域匹配算法实时性高,应用前景广阔。计算机立体视觉通过对人的双眼进行模仿,在双眼的立体感知中获得信息,从摄像机拍摄的图像中获取物体的三维深度信息,这就是深度图的获取,把深度图经过处理得到三维空间信息数据,二维图像到三维空间实现转换。深度的获取在双目立体成像视觉系统中分为两步,首先在双目立体图像与图像之间建立点对点的对象关系,双目立体视觉算法研究的重点问题是解决对应点之间的匹配问题。其次以对应点之间的视差为依据对深度值进行计算。双目成像是获取同一场景中两幅不同的图像,两个单目成像模型构成一个双目成像模型。双目成像示意图如图2所示。系统的基线B是两个镜头中心的连接线,空间点w(z,y,z)作为世界坐标的值由(x1,y1)与(x2,y2)进行确定,如果摄像机的坐标位置和空间点w世界坐标的位置重合,图像平面和世界坐标轴xY的平面就是平行的。如果两个摄像机在坐标系统中的原点不同但是它们的光轴平行,那么双目成像计算人们可以看图3所示,图3表示的是两个摄像头连线在平台xY的示意。

立体视觉的成像过程是成像的逆过程,具有一定的不确定性。大量的数据信息在从三维影像向二维图像进行投影的过程会出现丢失的现象,所以视觉系统要通过自然的约束条件才能保证获取正确的解。这些约束条件在减少匹配的计算量方面可以提供有利的帮助。针对基于区域匹配快速算法,还可以应用基于视差梯度的匹配算法,这种匹配算法应用较大的搜索范围在边缘的特征点上进行搜索,采用视差梯度在非边缘区减少搜索范围。应用计算机视觉立体匹配算法可以减少成像匹配时间,大大提高了工作效率。计算机立体匹配算法征点的提取是算法的关键问题,今后的研究方向重点是对有效特征点提取方法的研究。

篇2

(1)课程内容方面:工程应用价值较小的内容居多;具备工程应用价值的方法,如基于结构光的3D信息获取,在课程内容中却极少出现。

(2)课程定位方面:现有课程体系中未能体现最新研究成果,而掌握世界最新工程应用成果是卓越工程师的基本要求之一。

(3)教学形式方面:传统计算机视觉课程侧重基本原理,尽管范例教学被引入到课堂教学中,在一定程度上帮助学生理解,但卓越工程师培养目标是培养学生解决实际工程问题的能力。针对卓越工程师培养目标,以及目前计算机视觉课程中存在的问题,本文提出工程应用导向型的课程内容、面向最新成果的课程定位、理论实例化与工程实践化的教学形式,以培养具有扎实理论基础及工程实践能力的卓越工程师。

1工程应用导向型的课程内容传统计算机视觉课程围绕Marr理论框架展开教学,其中部分原理仅在理想状态或若干假设下成立,不能直接运用到工程实践中。近年来已具备工程应用基础的原理及方法,在传统课程内容中较少出现,如已在工业测量、视频监控、游戏娱乐等领域中应用的主动式三维数据获取方法等。我们对工程应用价值高的课程内容,增加课时,充分讲解其原理及算法,并进行工程实例分析;对工程应用价值较低内容,压缩课时,以介绍方法原理为主。例如,在教授3D信息获取部分时,课时主要投入到工程应用价值较大的内容,如立体视觉、运动恢复结构、基于结构光的3D信息获取等;而对于基于阴影的景物恢复等缺乏应用基础的内容主要介绍其基本原理,并引导学生进行其工程应用的可行性分析,培养学生缜密的思维习惯,训练学生辩证的分析能力。

2面向最新成果的课程定位计算机视觉近十年来发展迅速,新方法和新理论层出不穷,在现有课程体系中未能得以体现。跟进世界最新成果是卓越工程师的基本要求之一,因此计算机视觉课程定位应当面向国际最新成果。为实现这一目标,我们主要从以下两方面入手。

(1)选用涵盖最新成果的教材。我们在教学中加入国际最新科研成果及应用范例,在教材选取上采用2010年RichardSzeliski教授所著《Computervision:algorithmsandapplications》作为参考教材。该书是RichardSzeliski教授在多年MIT执教经验及微软多年计算机视觉领域工作经验基础上所著,涵盖计算机视觉领域的主要科研成果及应用范例,参考文献最新引用至2010年。这是目前最新的计算机视觉著作之一,条理清晰,深入浅出,特点在于对计算机视觉的基本原理介绍非常详尽,算法应用紧跟国际前沿。

(2)强化学生调研及自学能力。“授之以鱼”,不如“授之以渔”。在教授学生的同时,更重要的是培养学生调研、跟踪、学习并分析国际最新科研及工程应用成果的能力。为强化学生的知识结构,培养学生跟踪国际前沿的能力,我们在教学中加入10%的课外学时,指导每位学生完成最近三年本领域的国际最新文献调研及工程应用新技术调研,并撰写相关调研论文。同时,设置2学时课内学时,让每位学生介绍调研成果,并进行课堂讨论。在调研基础上,选择相关算法进行了实验证明,进一步强化学习成果。实践证明,由于学生能够根据自己的兴趣,选择本领域感兴趣的课题进行深入调研,极大地调动了学生的积极性,强化了学生调研、跟踪、学习并分析国际最新科研及工程应用成果的能力。

3工程实践化的教学形式我们在教学中提出工程实践化的教学形式,即以人类视觉功能为背景,由相应工程实例引出相关理论,并最终将理论运用到工程实例中的算法和方法传授给学生。

篇3

【关键词】摄影测量;计算机视觉;数字化

科技迅速发展,摄影测量技术经过多次改革,到目前已经进入数字化的摄影测量技术阶段,这个新技术对整个摄影测量专业理论知识教学、科学研究和企业生产都有重要的影响,这些影响不仅仅是表现在表面,它已经使摄影测量的概念和涉及到的专业的知识都有影响。从测绘学科的角度来说,数字测量技术已经从传统的摄影测量技术发展到现在新型数字化测量技术,简便快捷;从摄影测量学科来说,数字摄影测量技术已经从经典的摄影测量转化到现在与计算机相结合的高科技技术。数字测量技术既给人们带来机遇,又给技术人员带来挑战,但是其在发展中还存在很多问题。作为新时代的我们,应努力抓住机遇,勇敢的面对挑战,提高自身的知识储备量和技术,使自己能在快速发展的经济市场中站住脚步。

一、摄影测量发展现状

由于摄影测量生产的转型,影像扫描仪已被大量地应用,全国扫描仪数量已超过100台。同时航空摄影机(如RC30)也在加速引进。应用于航空摄影过程中的GPS/IMU系统也已引进,Z/I公司的数字航空摄影机DMC已开始在中国应用。与此同时,高分辨率的遥感影像以及其定位参数(RPC)文件的应用,只要极少量的外业控制点,就能迅速生成正射影像图,它已在城市、土地的变迁、规划中得到愈来愈广泛的应用。航空激光扫描Lidar也愈来愈成熟。

由于新一代传感器、定位系统的迅速发展与应用,以及数字摄影测量工作站的发展及其大规模的推广,这样对摄影测量自身发展提出一个非常严峻而又现实的问题:摄影测量向何处去,除了摄影测量与新一代遥感传感器、GIS、GPS 更进一步地结合外, 摄影测量自身从理论到实际将如何发展,还有没有发展前景,在国际上同样对摄影测量发展提出了疑虑,美国Ohio大学Schenk教授在其著作“数字摄影测量学”的序言中指出:摄影测量与猫一样,他们有一个共同的特点,他们都有几次生命,摄影测量的终结已经被多次预测。但是他对此问题作了明确的回答:数字摄影测量是一门相对年轻的、并且迅速发展的学科。它的许多基本概念与方法来自影像处理与计算机视觉。但是不管它们对它的影响有多强烈, 数字摄影测量还是一门有自己特色的学科。

二、数字摄影测量给学科带来的机遇与挑战

摄影测量与遥感是一门“从影像重建被摄物体表面”的学科,摄影测量侧重于重建物体的几何表面,并进行“量测”;而遥感则侧重于重建物体的物理表面,恢复问题表面的物理属性。因此,从本质而言, 摄影测量与遥感是研究影像的获取、理解、加工、处理的科学与技术,使人们更容易直观地理解与应用有关信息。从测绘学科的角度来理解,摄影测量是一门“量测的学科”,著名的摄影测量学者HeIva (1995)就认为“摄影测量的范畴是量测”;而从信息科学和计算机视觉科学来看,它是从影像来重建三维表面模型的科学与技术―计算机立体视觉。但是,人们一般并没有将摄影测量与计算机立体视觉联系在一起。这是由于摄影测量在上世纪摄影技术出现不久就被学者发现其测量功能,并被使用,而计算机立体视觉实在新世纪环境下创造并被使用的,因此摄影测量的历史要比计算机立体视觉的历史长得多,并早已成为测绘产业的重要组成部分;而且,长期以来,摄影测量是依赖于精密的光学机械仪器,特别是在模拟摄影测量时代, 摄影测量以模拟摄影测量仪器为代表, 与计算机没有任何联系。我们必须清楚地认识到,摄影测量发展到今天,已经超越了传统摄影测量的范畴,它已经不属于摄影测量工作者“独家所有”。这是摄影测量工作者面临的最严峻的挑战。

同时,数字摄影测量也为我们带来了发展机遇。在模拟摄影测量时代, 摄影测量的教学、科研以及生产的组织与流程,一切均以模拟摄影测量仪器的制造者为中心。摄影测量仪器的理论、结构,各种控制器、仪器的定向理论与操作方法,变换光束测图的理论等,均以相应的仪器为中心。进人了解析摄影测量时代,由于计算机引人了摄影测量,大大地拓宽了摄影测量教学、科研的领域,这也提供给学者们更多的研究方向。

三、数字近景摄影测量――摄影测量发展的崭新领域

到目前为止数字摄影测量的发展,无论在理论上还是在实际上,,主要还是围绕着利用航空(航天)摄影测量测绘地形图展开的,而对于数字近景(地面)摄影测量的研究甚少。同时随着数码相机的广泛应用,价格愈来愈低廉。数码相机在测量中的应用将是摄影测量发展的必然趋势。

在此领域数字近景摄影测量与计算机视觉有着天然的密切联系,因为计算机视觉的研究目标是使计算机具有通过2维图像认知3维环境信息的能力,这种能力将不仅使机器感知3维环境中物体的几何信息,包括它的形状、位置、姿态、运动等,而且能对它们进行描述、存储, 识别与理解,两者之间有很多相似之处,但两者间又有明显的差异。不论差异大小,不可否认的是,数字近景摄影测量已成为数字摄影测量发展的必然趋势。

四、结束语

数字摄影测量在目前还是一个较为年轻的学科,主要采用计算机技术,将获取到到信息数字化,通过计算机进行测绘和分析,提取出对人们有用的信息,这一改变,使数字摄影测量很快被企业所接受并得到快速发展。总而言之,数字摄影测量技术的出现不能仅视为简单的科学进步而已,应该透过现象看本质,深刻认识到他已经从概念开始改变,并影响到科学研究领域,正在逐渐改变企业的生产产品水平。面对这些情况,我们应该努力提高自己的理论知识储备量,提升专业素养,及时抓住一闪而过的机会,迎接各种挑战,在激烈的竞争不断进步。

参考文献

[1] 李利,马颂德. 从2维轮廓线重构3维二次曲面形状[J].计算机学报,1996,19(6):401.

[2] 马颂德,张正友.计算机视觉-计算理论与算法基础[J].北京:科学出版社1998.

篇4

【关键词】 运动目标检测 视频图像 OpenCV

一、绪论

随着计算机技术日新月异的发展,计算机视觉,模式识别,人工智能,多媒体技术,越来越受到人们的重视的快速发展。广泛地被定位对象使用运动跟踪和检测,监测和智能人机交互和分析他们的行为,一旦发现有异常行为的对象,监控系统发出警报,提醒人们注意和及时的治疗,改善人类的人工监督注意力浪费资源等问题。计算机视觉是通过计算机代替人的眼睛和大脑感知外部环境,分析和理解。

1.1 OpenCV技术介绍

视觉处理算法的OpenCV提供了非常丰富的,它部分是用C写的,有它的开源特性,妥善处理,无需添加新的外部支持进行编译和链接,生成程序的完整实现,所以很多人们用它做算术移植,OpenCV的可正常运行的系统DSP和MCU系统正常重写代码。

二、运动目标检测

运动目标的检测在整个视频监控系统的底层,各种高级应用,如目标跟踪,目标分类,目标行为的随访,了解互惠的基础。运动对象检测装置,从在实时目标视频流中提取,目标通常设置面积和颜色特性。结果运动目标检测是描述一些静态功能的“静态”的目标前景。根据上下文,其中环境可分为两大类静态背景下运动目标检测和动态背景运动目标检测,本章与实际纸工作主摄像机静态背景运动目标运动结合,不会发生前景对象的运动目标检测检测算法。

2.1运动目标检测的基本方法

目标检测和提取已在目标跟踪应用程序中的重要地位。目标检测和提取的精度直接影响结果和准确性的跟踪。一个良好的各种环境动目标检测算法的应能适用于监测,在正常情况下,移动体检测算法可以根据场景被监视在室内或室外监测算法被分成室内和室外监视算法,则可以按照使用特定算法的方法分为连续帧差分方法,背景减除法和光流法。

2.1.1帧间差分法

对于许多应用,图像的连续帧之间的差检测出图像的顺序是非常重要的一步。场景中的任何可观察到的运动将反映在场景图像序列的变化,如果能检测到这种变化,我们可以分析的运动特性。

2.1.2背景差法

基于该原理的背景差分方法非常简单,基本操作过程示于(4.2)如下:首先使用式(4.3)来计算背景图像之间的差fbk当前帧fk,然后根据下式(4.4)是差分图像的Dk值化和形态学滤波处理,并获得当该区域的通信区域比给定的阈值RK进行连通区域分析的结果,它成为检测对象,并且该区域是区域目标在区间的,你能确定的最小边界矩形的目标。

其中T 是二值化设定阀值。

2.1.3光流法

光流是指在图像模式(或表观的)运动的表观亮度。用“表观运动”,主要是由于光流的运动图像不能有部分信息只以确定,例如,区域性或亮度轮廓点更均匀的亮度不能唯一确定的运动对应的点,但观察到的运动。这解释了光流和该流不一定是由物体的运动所产生的光,而运动的主体不一定会产生光流体育场不一定是唯一的。

三、目标跟踪算法的研究

目标对象的运动信息的条件的先验知识下跟踪,通过从信息源的实时数据来估计所述目标状态,以实现所述目标位置和运动趋势判定。运动目标跟踪问题是一个复杂的估计。研究精度高,性能稳定,目标跟踪方法的适用性仍面临巨大挑战,具有重要的理论意义和实用价值。

3.1图像匹配法

通过图像匹配方法可以识别要跟踪的运动对象,并确定它们的相对位置。早期跟踪涉及的目标位置的变化的两个图像之间的测量计算出的相关函数,跟踪点是,这两个图象相匹配的最佳位置,这是相关函数的峰值。

3.2基于团块的目标跟踪

基于团块(BLOB)的基本原理是用于图像分割候选像素跟踪算法,它决定像素是否属于背景或属于定位或属于其他区域。基于跟踪算法的质量也可称为基于图像分割的跟踪,分割结果刚够目标和背景之间的区分,而传统的图像分割算法需要目标轮廓的精确显示。分裂台球在目标,纹理特征和图像的深度信息的一般特性。

四、结语

随着在军事领域的计算机视觉,智能交通监控,视频运动目标检测与跟踪的发展必将得到更广泛的应用和发展。在本文中,历时四个月中,主要研究的OpenCV实现运动目标检测与跟踪的应用,实验结果表明,该系统具有良好的鲁棒性和准确性,实现毕业设计的预期目标,在工作和问题结合起来实际应用中。

参 考 文 献

[1]刘瑞祯, 于仕琪. OpenCV教程基础篇[M]. 北京: 北京航空航天大学出版社,2007.

[2]彭达. Visual C++多媒体编程技术[M]. 北京: 人民邮电出版社, 1999.

[3]丁金铸. 基于图像处理的运动目标检测跟踪系统的设计与实现[D]. 华中师范大学, 2007.

[4]王建中, 姜昱明. 基于块匹配的运动对象检测算法[J]. 微电子与计算机, 2005, 22(1): 10-12.

[5]林少丹. VC++程序设计基础[M]. 北京: 人民交通出版社, 2009.

[6]唐双发. 基于OpenCV的车辆视频检测技术研究[D]. 华中科技大学, 2009.

[7]李庆忠,陈显华,王立红. 视频监视中运动目标检测与识别方法[J]. 计算机工程, 2004, 30(16):30-33.

[8]胡晓峰, 吴玲达, 老松杨, 司光亚. 多媒体技术教程[M]. 北京: 人民邮电出版社, 2002.

[9]韩鸿哲, 王志良, 刘冀伟, 李郴, 韩忠涛. 阴影消除的自适应背景建模[C]. 第二届全国智能视觉监控学术会议论文集, 2003, 35-39.[10]张玲, 叶海炳, 何伟. 一种基于边缘信息的改进车辆检测方法[J]. 重庆大学学报(自然科学版), 2004, 27(11): 56-58.

[11] J.B.Kim, H.J.Kim. Efficient Region―based Motion Segmentation for Video Monitoring System [J]. Pattern Recognition Letters, 2003, 3(24):113-128.

[12]王春平, 朱元昌,黄允华. 基于图像信息的跟踪算法分析[J]. 火力与指挥控制, 2000, 25(1): 64-67.

[13]杨枝灵, 王开. Visual C++数字图像获取处理及实践应用[M].北京: 人民邮电出版社, 2003.

篇5

关键词:计算机视觉;行人检测方法;改进;级联分类器

中图分类号:TP391.41文献标识码:A文章编号:1009-3044(2012)22-5341-03

Computer Vision—Improvement in Pedestrian Detection

DU Wen-lu

(Colledge of Japanese & Software Engineering, Dalian Jiaotong University, Dalian 116052, China)

Abstract: This passage is about pedestrian detection and its improvement concerning its main idea, scope and method. The pedestrian detection based on statistical methods are analyzed and combined with the characteristics. The method of merged classifiers which can improve the detection rate on the condition that the performance will not decrease is used in this experiment. A marking foreground method is proposed that the foreground is extracted and marked, so that only the foreground pixels are detected instead of all of the image at the detection stage, which can improve the accuracy of detection, and make the detection speed more faster.

Key words: computer vision; pedestrian detection; improvement; merged classifiers

计算机视觉对于人类的影响是重大的,它伴随着计算机的蓬勃发展成为了一个不可或缺的分支。毫无疑问视觉信息在我们的日常生活中具有重要的地位。如果计算机能够像人类那样理解摄像机捕捉到的视觉信息,则会给我们的生活带来巨大的影响和帮助。然而目前对于计算机视觉的研究还不是很成熟的,比如小孩到了4、5岁的时候就能在轻易地分辨出图像卡片中的树、人、车等不同类别的物体,还能区别不同的树,如杨树、柳树、果树等,在这方面,计算机明显还存在着巨大的不足之处。

该文针对计算机视觉中的行人检测部分做了深入的研究,力求能让计算机能够高速高质量的辨别一段视频中的人。下面详细的对所做的实验的方法以及结果做以介绍。

1行人检测方法改进的主要思路

实验的主要思路为在行人检测研究时,根据现有的级联分类器的不足之处,提出了融合两个级联分类器来进行行人检测的方法。具体采用了表观特征向量来描述人体,并结合统计学习的分类方法来检测视频中的行人。为了保证融合分类器的检测性能和实时性,融合的两个分器分别选取了类Haar特征分类器和Shapelet特征分器,前者作为第一级分类器,后者作为第二级分类器。提出了使用Haar-like结合人体头肩的特征和Shapelet结合人体头肩的特征来描述人体;在分类器训练时,采用的是Gentle-Adaboost机器学习算法;并且为提高分类器检测速度,首先对视频序列进行了前景标注,采用背景差分将前景点标注出来,这样在检测时只需检测前景点即可,减少了大量背景上的检测时间。该文检测方法的具体流程如图所示。

图1行人检测具体流程图

2研究的范围与方法

2.1本实验主要研究的是静态背景下的行人检测

根据拍摄的摄像头的情况,可以将运动目标检测的研究主要分为两大类:动态背景情况下的目标检测与静态背景下的目标检测。前者主要是在拍摄的过程中,摄像头是跟着目标前进,后退等方式移动的,背景环境因此也是不断变化的;后者情况下,摄像头是固定的,相对于目标场景来说是静止的,因此背景环境是相对不变的。而视频监控系统中使用的大多数方式便是固定摄像头,所以本实验主要研究的是静态背景下的目标检测。

另外此实验是基于统计方法的行人目标检测。采用统计分类学习来研究目标检测问题。该方法通过统计学习获得的分类器某个类别目标的检测器(例如人脸、汽车和行人等),然后根据得到的检测器来进行目标检测。基于统计方法的目标检测方法一般被分为两个阶段:离线检测模型的训练和在线目标检测阶段,在离线训练阶段,首先要收集大量的样本,包括与正样本和负样本,正样本指包含着目标类别的图像,负样本指不包含目标类别的图像;接着对收集好的正负样本做标记(用y表示),与正样本标为+1,负样本标为-1;然后对样本进行配准、对齐和大小归一化;再接着在归一化后的正负样本上提取出特征向量x (x∈Rd),和对应的标签 y一起组成最终用以统计训练学习的特征向量集合S={(x1,y1),…(xN,yN)};最后使用选定的统计学习方法根据训练数据集S训练分类器的参数以供检测阶段使用。

在线检测阶段首先需要在待检测图像上提取得到与训练阶段使用的相同的特征向量,然后与离线阶段的分类器对该特征向量进行分类差别。由于不知道目标在图像中的大小和位置,因此在检测时需要在不同的尺度和位置对目标进行检测,即需要在不同的尺度位置空间中逐窗口进行遍历判断。。尺度空间通过对图像逐级缩放做金字塔分解(Pyramid decomposition)实现;位置空间通过遍历每个尺度下图像中的每个空间位置实现。因此检测目标时某个尺度下对于目标大小为w×h,图像尺寸为W×H时,需要分类判断的窗口数目约是WH个,数量巨大。在不同的尺度与位置空间进行窗口遍历时,如果该窗口被判别为目标类别,则记录其位置和当前的尺度,否则丢弃,最后将不同尺度和位置上得到的检测结果进行聚类或者最大化抑制输出最终的检测结果。

2.2本实验采用的是基于部件的行人检测方法

行人统计学习算法根据检测方式的不同基本可以分为两类:基于人体整体的统计学习方法和基于人体部件的统计学习方法。前者将整个人体作为特征进行分类器训练,对于待检测图像,其进行整个人体的特征提取,然后再用分类器进行分类即可,而后者则将人体的各个部件均看作是人体的一个特征,然后分别进行分类器训练,得到各自的分类器,在检测时,先检测各个部件,然后根据分析各个部件的相互约束关系来最终做出判决。

本采用的便是第二种方式,基于部件的行人检测方法,但区别于以上的方法,该文采用的是用两种不同的特征分别训练相同的一个部件的方法,最后综合两个分类器的结果做出决策

人体检测中的特征是对目标的描述,是用来有效的区分目标与非目标的,是目标检测的基础,在检测目标的过程中,如果能够提取出有效区分目标类与非目标类的特征,那么检测的性能就会有巨大的提升,相反,如果一个特征不能区分目标类与非目标类,那么有检测时,便不能与待检测的目标很好的匹配,或是与其他物体相似,便可能造成误检。所以,提取什么样的特征来描述目标是目标检测中和首要问题。接下来介绍的是该文主要使用的是类Haar特征和Shapelet特征。

Shapelet特征是通过先局部,后整体的思想,先在局部提取小特征集作为最基本的低层特征,然后通过统计学习算法得出中层特征,最后再由中层特征构成分类器,层层进行筛选,把分类能力较弱的特征一层层筛掉,最后得到包含更多有用信息的特征用来分类,特征的维数相对来说是非常低的,计算也简单;而且特征是由低层特征训练而来,类间的区别能力更强,在基于行人的检测方面,性能尤其卓越,比Dalel的HOG特征算法的误检测率降低了整整10倍。实验已经证明,通过自适应学习而来的Shapelet特征相比其他的固定特征来说,能捕捉到更多有用的用于判别的信息,因而训练出的检测器性能可以达到非常优秀的水平。类Haar特征可以快速的进行行人检测,但是在检测的过程中,由于该特征主要描述的是行人与背景之间的差异性,对于人体内部的差异性描述的精度不够,所以该文采用融合分类器进行行人检测时,先使用类Haar特征训练人体头肩生成的分类器进行检测,可以快速的对非人体目标进行排除。

对于级联分类器来说,级联分类器在检测率,漏检率,虚警率,和时间等性能上的变化,通过一系列实验我们可得知随着分类器级数的增加,在分类器的后面几级中被过滤掉的样本中正样本所占的比率呈直线上升的方式增加。

3行人检测方法改进具体步骤

该文的设计方法均是在OpenCV的基础上,采用Visual Studio 2010实现的。本实验的参数设置如下:正样本和负样本在级联Adaboost分类器中的单级通过率分别为99%和50%。分类器在尺度空间上对检测窗口搜索的步长设定为1.05(经验值)。在实验过程中,Haar特征级联分类器和Shapelet特征级联分类器分别采用了900张正样本和2000张负样本,并对人体的头肩部分做了人工标注,作为训练数据集,训练数据集的归一化大小为20*20。为了增加训练数据集,该文对标准数据库中的正样本进了竖直方向的镜像对称,使正样本的数量增倍。Haar特征级联分类器由20级Adaboost分类器构成,Shapelet特征分类器由10级Adaboost分类器构成。

3.1本实验采用一种新的级联分类器的融合方式

笔者提出一种新的级联分类器的融合方式,以期随着分类器级数的增加,检测率不断提升的前提下,能有效的遏制正样本被过滤掉的概率的增加,以此来增强分类器的性能,使分类器的检测率更加提升。

根据之前的分析类Haar特征运算简单,快速,采用它训练的分类器可以在分类器的前几级快速的排除掉大量的背景区域,但是类Haar特征描述的主要是人体与背景之间的差异性,因此在分类器随着性能的增加,分类器复杂度提高的情况下,在分类器的后几级,类Haar特征对区别与行人轮廓类似的物体时,非常不敏感,很容易将这二者混淆,将行人误判为非行人,或将非行人误判为行人,导致分类器的虚警率和漏检率的增加;而Shapelet特征在基于行人的检测方面,性能则尤其卓越,通过自适应学习而来的Shapelet特征相比其他的固定特征来说,能捕捉到更多有用的用于判别的信息,特别是人体的头肩部分,Shapelet的描述更加的精确,对于区分与行人非常类似的物体,具有很高的性能。

为此,我们采用基于人体头肩部件的类Haar特征和Shaplet特征来训练分类器,根据二者各自的性能,该文先用类Haar特征级联分类器对检测窗口进行分类,在分类器的前面就快速的排除掉大量的背景区域,然后,在分类器的后面几级,对于分类器的排除掉的样本,再用Shapelet分类器来进行分类,将在Haar特征分类器中被漏掉的目标区域检测出来。最后根据两个分类器的结果进行决策。这样就对那些在Haar特征分类器中被错误过滤掉的目标样本进行了二次分类,降低了分类器漏检率的增加。

3.2本实验采用前景标注的方法为了提高分类器的检测速度

我们会在待检测的视频图像上对前景进行标注,在检测的过程中根据标注只需要在前景部分进行行人检测即可,不必在全局图像中进行搜索匹配,这样既可以减少检测的数量,又可以节约检测计算时占用的空间,对于视频分析中时间和空间进行了双重的优化。该文的前景标注的过程主要是:采用背景差分法得到图像的前景,然后对于得到的前景建立一张标注表,与原图像进行对应,在检测时,标注为前景的像素点则在原图像上进行目标检测,若标注为背景,则不进行检测。

图2低分辨率监控视频下的部分实验结果:上层为行走的行人,下层为骑车的行人

4结论

该文通过对行人检测所使用的统计方法和特征进行了分析比较,并分析了级联分类器的特点,得出级联分类器级数越高,在最后几级中被排除掉的样本中正样本的比率上升很快,会引起分类器漏检率的急剧增高,因此,该文提出了基于融合分类器的行人检测算法,该融合方法选择两个级联分类器(分别为类Haar特征分类器和Shapelet特征分类器)进行级联融合;根据监控视频领域中一般情况下都是静态背景,而且为了提高检测的速度与避免背景的干扰,该文提出了在检测前先进行前景标注的方法,然后再在带标注的图像上进行行人检测。

参考文献:

[1]贾慧星,章毓晋.车辆辅助驾驶系统中基于计算机视觉的行人检测研究综述[J].自动化学报, 33(1):84-90, 2007.

篇6

关键词: 计算机视觉; 手指特征识别; 动态阈值算法; 矩形模版

中图分类号: TN911?34; TP37 文献标识码: A 文章编号: 1004?373X(2017)12?0113?04

Abstract: In order to improve the accuracy and speed of the finger feature recognition in video image, a dynamic threshold algorithm based on rectangle template is proposed. The rectangle template is used in the algorithm to smooth the image, and the gray threshold method is used to extract the edge of the target to recognize the finger feature accurately. The Matlab simulation results show that the algorithm is lightly influenced by environmental noise, and can segment the edge of the finger clearly and accurately. A finger feature recognition system based on computer vision was designed on FPGA platform. Its real?time performance, finger recognition accuracy and other performances were tested. The test results show that the running speed of the system is synchronous with the speed of capturing the image by camera, which can meet the real?time requirement of the system. The coordinates deviation of the finger position recognized by the system is about 3 pixels, which can basically meets the accuracy requirement of the system.

Keywords: computer vision; finger feature recognition; dynamic threshold algorithm; rectangle template

S着科学技术的飞速发展,人与计算机之间的交互活动越来越密切,并逐渐成为人们日常生活的重要组成部分。传统触摸屏是现阶段一种最常见,也是最重要的人机交互方式,其是通过一种附加在显示器表面的透明介质,依赖使用者的手指触摸该介质来实现对计算机的输入控制[1?2]。目前,这种触摸屏技术已经相当成熟,但是,技术上不容易做到大尺寸,且成本相对较高,也易于破损。为了突破传统触摸屏这种人机交互方式的局限,把任何成像平面变成可用手指进行交互的系统,本文提出了一种基于计算机视觉的手指特征识别算法,并在FPGA平台上建立了一套基于计算机视觉的手指特征识别硬件系统。这种基于计算机视觉的手指特征识别方法可为基于视觉的人机互动提供一种新的技术解决途径。其与传统触摸屏的区别在于,不需要在成像屏幕上安装任何特殊介质,使用寿命得到大幅延长,应用范围有了很大扩展。

1 图像采集平台

本文所采用的图像采集平台如图1所示,在任何与计算机连接的显示设备(如投影屏幕、等离子电视等)的左上角、右上角安装两个摄像头,通过这两个摄像头便可确定手指在屏幕上的二维坐标信息(x1,x2)。然后,将此坐标点传至计算机,并与Windows系统的鼠标程序关联即可实现人机交互功能。图2是图像采集平台的侧视图。其中虚线框表示摄像头视野中系统需要处理的区域,即手指出现的区域。

2 手指特征识别算法及仿真

在系统实现过程中,如何从摄像头所拍摄的画面中准确地识别并提取出手指信息是其难点之一。在目前的图像处理技术中,用于识别背景图案中目标物体的算法很多,本文在分析基于色彩聚类的肤色识别算法的基础上,结合课题特殊需求,提出一种基于矩形模板的动态阈值算法,并在Matlab中对上述算法的处理效果进行了仿真。

从图像采集平台可以看出,本系统只关心距屏幕很近的小视野内是否出现区别于背景的目标物体。因此,只需从摄像头拍摄的图像当中截取一部分,如图3中的小矩形框所示。

2.1 基于色彩聚类的肤色识别算法

肤色是人体区别于其他物体的一个重要特征,人体肤色特征不受位置、角度、大小等因素影响,具有较强的稳定性。因此,本文首先选定基于色彩聚类的肤色提取识别算法进行研究。在色彩聚类方法中,Anil K.Jain的Cb,Cr椭圆聚类方法最为典型[3?4]。采用非线性分段肤色分割得到的肤色区域在Cb,Cr空间中近似于椭圆,如下:

由图5可知,利用该算法分割手指信息的效果尚可,能从比较友好的环境中迅速准确地识别出手指信息。图6为利用椭圆聚类肤色分割算法对从图像采集平台读取图像的手指识别效果。可见,该算法在普通环境下对手指的识别效果良好。但当屏幕上的颜色影响手指肤色时,该算法的识别能力就会有所降低。可见,该算法对皮肤颜色的纯度要求较高,适用范围受限。图7为屏幕出现大面积蓝色时对手指识别造成的影响效果。

2.2 基于正方形模板的动态阈值算法

基于正方形模板的动态阈值算法,即采用灰度阈值法,用正方形模板平滑图像[5?6]。图8(a)是3×3模板动态阈值算法平滑图像的过程。

应用基于3×3模板的动态阈值算法对原图4进行边缘提取的仿真效果如图9(a)所示。可见,应用3×3模板可以提取出目标物体的边缘,但不够清晰。虽然可以通过增大模板取得比较理想的效果(图9(b)为采用基于101×101模板的动态阈值算法的处理效果),但会使计算量剧增,同时也缩小了模板所能完全覆盖的范围,使图像边缘产生无效的白色区域。

2.3 基于矩形模板的动态阈值算法

根据课题实际需要,即所要处理的目标区域为长方形窄条区域(如图3所示),本文提出一种基于矩形模板的动态阈值算法。该算法与基于正方形模板算法的区别在于,平滑图像时所用的模板为窄条形,如3×5模板,3×15模板,3×41模板等。图8(b)是3×9模板动态阈值算法平滑图像的过程。

图10给出了采用基于3×9模板、3×14模板、3×81模板、3×101模板动态阈值算法对原图4进行手部边缘提取的仿真效果。由仿真效果可知,基于矩形模板的动态阈值算法在模板取值为3×9的情况下,便能够清晰提取出目标物体的边缘。而且,随着模板取值的增加,目标物体边缘的提取效果更加清晰准确。与基于正方形模板的动态阈值算法相比,基于矩形模板的动态阈值算法计算量较小,节约了系统的计算资源。

3 基于FPGA的手指特征识别算法的系统测试

为了验证本文所提出的基于矩形模板的动态阈值算法能否满足屏幕交互系统的整体要求,本文通过编写软件程序在FPGA开发板上对这种算法进行了硬件实现和系统测试。

3.1 硬件实现

本文所采用的硬件实现系统主要是基于美国Altera公司生产的型号为EFA?CY1C12的“红色飓风”(Red Cyclone)系列FPGA开发板,并另外集成了用Ommvison公司的型号为OV9655的CMOS数字摄像头,以及ISSI公司的型号为IS61LV25616AL的SRAM存储器[7?10]。最终搭建的硬件系统如图11所示。

3.2 系统测试

本文主要对系统的实时性、手指提取精度、资源占用情况等影响系统运行的重要技术指标进行了测试。

(1) 实时性

OV9655摄像头在1 280×1 024分辨率下,能提供15 f/s的图像采集速率,课题所设计的软件程序可以在一帧图像的处理时间内完成了数据的采集、手指边缘的识别等运算,实现了系统执行速度与摄像头拍摄速度的同步,达到了系统对实时性要求。

(2) 手指识别精度

由于课题在软件设计过程中编入了图像采集防抖动处理程序,提高了图像采集的稳定性,也提高了手指识别的精度。经过测试,本系统得到的手指位置信息的坐标偏差为3个像素,基本满足大屏幕交互系统对识别精度的需求。

(3) 资源占用情况

从Quartus Ⅱ的编译报告中可以看出,本系统的软件运行已占用FPGA的9 702个逻辑单元,占逻辑单元总数的80%。可见,该硬件系统的FPGA运算资源基本能满足系统的实际需要。

4 结 语

本文通过对基于矩形模板的动态阈值算法的研究和基于FPGA的手指特征识别硬件系统的实现,建立了一套基于计算机视觉的手指特征识别系统。该算法受环境噪声影响较小,能清晰准确地分割出手指边缘,且随着矩形模版取值的增大,算法的识别效果会更加良好。该系统的实时性、手指识别精度及资源占用情况均可满足系统要求。这种基于计算机视觉的手指识别方法成本低、灵活性好,为基于视觉的人机交互提供了一种新的技术途径。

参考文献

[1] 吕明,吕延.触摸屏的技术现状、发展趋势及市场前景[J].机床电器,2012,39(3):4?7.

[2] 陈康才,李春茂.电阻式触摸屏两点触摸原理[J].科学技术与工程,2012,12(18):4525?4529.

[3] MAITRE H.现代数字图像处理[M].北京:电子工业出版社,2006:79.

[4] 帕科尔,景丽.图像处理与计算机视觉算法及应用[M].2版.北京:清华大学出版社,2014:104.

[5] GONZALEZ R C,WOODS R E,EDDINS S L.数字图像处理的Matlab实现[M].2版.北京:清华大学出版社,2013:301.

[6] RUSS J C.数字图像处理[M].6版.北京:清华大学出版社,2014:216.

[7] 于枫.Altera可编程辑器件应用技术[M].北京:科学出版社,2014:68.

[8] 姚智刚,付强.基于低成本CMOS摄像头智能监控系统的设计[J].现代电子技术,2006,29(3):126?128.

篇7

【关键词】课程 计算机视觉 图像检索

1.课程设置、建设与改革自述

1.1 综合基础与应用,精选教研内容

从专业学位教育的高层次应用型人才培养目标出发,我以学生专业应用能力的培养作为教研的重点,同时,考虑到“计算机视觉”是一门数学要求较高、理论性较强的专业基础课程。课程的基础理论教研十分重要,我在规划教案时,综合安排基础理论与应用实践的教研内容。

1.2 强调学生应用能力,优化教研方法

将启发式教研方法融入到整个教研过程中,将课堂讲授的重点放在问题由来、概念形成、研究思路与方法上,并通过介绍人工智能与计算机视觉学科交叉中出现的最新研究与应用。把新理念、新思路、新方法和新问题引入课堂,调动学生学习的积极性和主动性,拓宽他们视野和思路。

通过较为熟悉的分析,“计算机视觉”课程中的教研方法较为新颖,使他们从一开始就建立了所学理论与实际工程控制问题的联系。

按“计算机视觉”的基础理论和知识内容分环节来实施教研,每个环节以实际工程问题开始,以理论学习为基础,各教研环节之间既是工程问题的系统化深入,也是理论知识体系的循序推进。

按“计算机视觉”的基础理论和知识内容分环节来实施教研。每个环节,以理论学习为基础,以提出和解决实际实验案例中的识别问题为结束,各教研环节之间既是三维重建问题的系统化深入,也是理论知识体系的循序推进。

他们都十分赞同我以强调学生自主学习和应用能力为目的的启发式和交互式教研方法。尤其是以论文报告和答辩形式提交作业。强调了理论和应用的结合。每一次的作业贯穿整个教研环节,使他们对问题的发现、理解和解决成为一个逐渐明确、细化和深入的过程,因此。虽然作业要求较高、工作量较大,但做起来并不会感到压力和困难。同时,他们大多之前没有撰写科研论文和报告的经历,通过作业也可以使他们在这方面的能力得到锻炼和提高,最后考试结业。

与此同时。研究生们也畅谈了他们对课程教研中一些问题的看法.研究生们十分重视专业应用能力和实际动手能力的培养与提高。也非常看重扎实理论基础的必要性,都认为理论学习与专业应用能力培养应该没有矛盾,但在有限的2年时间内,如何实现两者的全面提高,他们大多存在疑虑。同时,他们也认为目前大多数的课程教研具有明显的理论或实践的偏向性,缺乏科学合理的平衡。

针对我在教研中所提出的案例和问题,学生们反映,尽管十分熟悉,但对问题的本质和要求仍只是停留在理性认识上。无法建立与实际对象的对应关系。另外,他们提出,案例仅从单一课程角度讲授,在有限课时内难以从多学科的角度介绍滤波,三维重建,运动恢复,图像检索案例,虽然是实际科研项目,但课堂不可能展示整体实物,学生缺乏工业现场的实际感受。使得学生对案例的整体理解难以跳出课堂的思维界域。

针对此,我计划在加强现代化教育手段方面进行一些建设与探索,努力向学生提供信息容量大、表现形式丰富的综合性辅助认识手段。考虑到“计算机视觉”通常需要运用计算机技术解决工程问题,我们将在以后教研中,增加计算机辅助教研的功能。如利用Matlab工具对所学内容及实际视觉问题进行可视化仿真演示。我们也将用虚拟仪器工具搭建案例的虚拟系统,试图通过这样的虚拟系统,向学生提供有利于启发思维的灵活的认识与实践环境。增强学生的感性认识;同时,尽管采用了多媒体教研。计划在以后的教案中增加更多的现场视频材料以及图形和图像资料,使学生更容易理解和记忆,增强抽象理论的可接受性。这些工作都需要我们在教研和科研工作之余投入大量的热情和精力。

2.教研手段(课程建设中积极营造数字化、信息化环境和外语教研环境,网络教研和网上教研资源的开发与建设情况)

2.1本课程的主要特色

体现机器视觉与机器听觉融合。①机器视觉:图像处理、图像与视频压缩、模式识别和机器学习、生物特征识别、三维视觉信息处理。②机器听觉:听觉计算模型、语音信号处理、口语信息处理。此外还在同济大学开设计算机视觉,和图像处理方面课程,该课程构成本课程基础, 及对大量应用实例介绍设计方法,系统性能,并对结果进行祥细分析和点评。学生通过听课可以跟随教师本人了解和掌握计算机视听觉。充分领略数字技术用于语音通信这一广阔的领域神奇魅力。脑、 机接口的研究有广阔的应用前景, 正成为脑科学、康复工程、神经工程及人机交互( puter interface, HCI) 领域的一个研究热点。

2.2本课程的建设总目标和成果

以后开展图像,图形,语音处理,多媒体的内容的检索,三维景物物体的重建,自然语言理解的研究方向:视觉与听觉的生理学和心理学基础,从生理与心理学的角度探索视觉与听觉的感觉和知觉机理,为视觉与听觉信息处理提供基本理论和方法,完成同济大学研究生精品课程建设。以近几年为研究生讲授“计算机视觉”课程讲义的电子教案为基础,结合开发科研项目,并参考相关文献资料和最新动态编写计算机视听觉电子教案,和教材。

机器视觉:图像处理、图像与视频压缩、模式识别和机器学习、生物特征识别、三维视觉信息处理。

机器听觉:听觉计算模型、语音信号处理、口语信息处理、自然语言处理、智能人机交互。

2.3 本课程的建设分年度目标和步骤

教材内容:针孔摄像机,辐射学术语;局部影调模型,点,线和面光源,光度学体视;颜色;线性滤波器,平滑抑制噪音,边缘检测;纹理,用滤波器输出表示统计量,纹理量,纹理合成,由纹理推断形状;基本的多视角几何,立体视觉;用聚类实现分割;拟合直线与曲线,用最大似然率进行拟合,鲁棒性;隐变量与EM;用卡尔曼滤波来跟踪,数据相关;摄象机标定;使用特征对应和摄像机标定的基于模型的视觉;使用分类器的模版匹配;基于关系的匹配;在数字图书馆中检索图像,基于图像的绘制。

准备离散时间语音信号处理的原理,介绍语音信号处理研究及其应用方面的最新动态,其中包括语音处理,语音时频分析以及非线性声学语音产生模型,而这些讲授内容在以往任何一本语音信号处理教科书都不曾提及,深入介绍以下内容:语音编码,语音增强,语音综合,说话人识别,语音信号恢本复,动态范围压缩语音信号处理基础,语音的时域的分析语音信号频域分析,语音信号线性预测分析,矢量量化,语音编码,语音合成,语音增强,说话人识别。

3.构建研究实践型模式,探究研究生指导

通过研究生指导模式的学习,两种指导方式之一是对传统面对面的与基于网络两种指导方式的混合。师生之间定期与不定期面对面的交流对于保证研究生指导质量提高有着重要关系。互联网突破时空限制为高校师生提供一个开放的、共享、个性化、多维交互的教与学的平台。我提供优秀研究资源,学生也可以通过网络共享研究资源。师生都可以Web对于优化研究资源的共享、促进师生之间的社会互有着重要作用使得研究生指导模式充分发挥面对面指导。研究生指导主要注重科研素养培养。研究生培养根本目标发展能力。课程学习对于系统提高研究生对专业关心课程学习状况必要,要为学生提供学习方法指导与建议,要鼓励学生结合课程学习进行相关讨论。

基于自主与协作的探究性学习是研究生学习的主体地位,发挥作用。我在教研中培养研究生发现问题、分析问题、解决问题的能力正是为了支持研究目标在于获得亲身参与研究探究体验:培养“教研模式中”包括个人理解专业研究领域相关问题的内涵与特征。旨在使学生能够切实掌握专业与研究领域所涉及基本原理与能够利用这些原理与方法分析确定方案实施、“know“know 是相互交织相互作用的层面,主要是为了增强指导以便根据不同层包括若干个问题常常需投人较多的精力与时间。应该安排较长时间且要充分利用网络技术平台支持。提升研究质量有效地避免传统指导误区。在指导时过于强调研究生所获取学术成果而忽视指导过程体现在两方面:一目标评价标准单一往往给研究生层面:①面向研究生个体的“个别指导”;②面向小组集中:③自主调控评价,必须与教师、同伴、专家进行交流、协作才有可能真正地提高效率,实现学习目标,培养学团队意识,其次要帮助研略,在各层面都有明确的目标相应指导内容,并要注意这三个层面整合。使之过程得到全面发展。养成科学态度和科学道德。“科研能力发展、轻综合素质培养”,研究生导师不但应该是研究生的指导者。指导教师可以按“科研项目一要问题一具体任务”的层次。以教师的、助学促学”尽可使每个研究生都能达到预期培养目标。评价要更关注总结性评价”与“过程性评价”工具以丰富研究生指导过程中教研交互的教育学中社会互。传统环境下的社会互往往是面对面的交互。网络平台可以利用构建社会网络支持社会交互。强调的研究科研成果而深层次交流方式不同指导目标、不同指导层次整合,指导教师角色转变,变革评价方式,丰富指导教师来促进“自主一协作”探究学习,对研究生“混、他评”与“自混评关注教研评价的。”教研模式下网络技术与内涵表现在:①利用技术促进教研资源的整合,优化教研资源管理,教研资源共享,促进师生与教研内容的交互;②利用Web工具,有效地整合现实交互空间虚拟交互空间另外还地加速或加强人际联系,帮助师生了解探究式应用实践探索。

研究生是否发表了高水平的科研成果,研究生入学初期,以Web的应用为核心的互联网络不但为高校师生的交流提供了新的沟通与互动方式。以独特高校师生的思维方式生存方式发生了系列改变。也成为高校师生教研与生活中的重要信息工具为研究生指导提供了丰富的资源与多维立体环源。网络平台也用于共享、深化面对面交流中所总结形成相关观点与资料。要求其他每位学生都至少要提一个问题所提出问题进行进一步的讨论。了解专业研究领域的基本问题、核心问题与前沿问题研究生自己在调研基础上提出研究进行独立自主的探究。所以除了关注在专业领域内研究能力的发展之外还要注意教育科研能力的培养引导学关注“专业发展”。 用于规划了解学生的已有基础,以帮助后期制定更为合理个别指导计划:第二,通过召开定期的讨论会、师生个别交流,包括两种类型:①旨在提高新生适应研究生学习与生活的适应性:②面向科研任务的研究小组。面向任务方式冲击着高校师思维方式与文化理念,非常重视网络平台研究指导中的应用,建立了向团队公用资源平台教研主要采用研究式教研方法, 要求研究生自学其基本原理, 然后利用实际数据,由导师提供或从期刊文献中获取,完成数据预处理、计算、结果表达、解释的全过程, 并以论文形式提交给教师, 同时在课堂上向大家介绍自己的研究成果。这样做一方面提高了学生应用知识的能力以及研究成果的文字组织和语言表述能力。 另一方面, 研究生的每篇习作就是一个很好的实例, 教师可以从中发现学生对知识理解的偏差, 及时予以纠正, 使学生对方法的掌握更加准确和牢固。将网络共享平台中上传所有研讨记录训练,将研究分个层面:①选择专业研究内的基本问题或重要问题或热点问题对之进行深入探究。掌握本专业领域基本研究方法;②以自己课体依托,在课题下设置子课根据研究与研究兴趣跨年级构建小组,每个小组负责不同的子课题与任务③鼓励研究途径。一年级开始参与课题研究,二年级学期要求开始提出自己一些问题或鼓励结合确定毕业论文选题使他们在更大程度职业能力发展;推荐专业相关资料;对(共8人)进行指导,效果较明显。在学习方面,24名本科生通过毕业答辩。研究生八人以学生身份公开发表学术科研论文。 他们在这方面的能力得到锻炼和提高。

通过"混合型-探究式"研究生指导模式的学习实践三个维度的"混合":对传统面对面的与基于网络的两种指导方式的整合,对提升研究生课程学习绩效、促进研究生科研能力发展、促进研究生职业能力发展三个指导目标的整合,对个别指导、小组集中指导、团队集中指导三个指导层面的整合;说明了该模式中三个层面的"探究":对专业问题的探究,对专业与研究领域内基本原理的探究,对综合科研任务的探究;同时介绍了在实践层面应用"混合型-探究式"研究生指导模式的实际效果。以重点学科为依托,吸取国内外大学研究生培养经验,对创新型研究生培养模式方法进行探索,在研究生培养模式改革中,提出“四个转变”的指导思想,即变“单人指导”为“团队指导”,变“单一培养模式”为“多元培养模式”,变“以教师为中心”为“以学生为中心”,变“面向培养结果”为“面向培养过程”。形成以研究生为中心的培养模式,突出研究生探索精神、科学思维、创新意识的培养。切实 行的措施 引导 究生遵守科学 道德,保持科学冲动,增强创新意识,提高科学能力。

考虑到“计算机视觉教研探究研究生指导”通常需要运用计算机技术解决工程问题,我将在以后教研中,增加计算机辅助教研的功能。如利用Matlab工具对所学内容及实际视觉问题进行可视化仿真演示。我也将用虚拟仪器工具搭建案例的虚拟系统,试图通过这样的虚拟系统,向学生提供有利于启发思维的灵活的认识与实践环境。增强学生的感性认识;同时,尽管我采用了多媒体教研。我计划在教案中增加更多的现场视频材料以及图形和图像资料,使学生更容易理解和记忆,增强抽象理论的可接受性。

参考文献:

[1]David A.Forsyth and Jean Ponce , Computer Vision-A modern Approach

[2]贾云得.机器视觉.电子工业出版社,1999

[3]Thomas F.Quatieri离散时间语音信号-原理与应用,电子工业出版社,2004

[4]Shapiro.L.G and stockmen,G.C,计算机视觉.北京-机槛工业部,2001

[5]Haralick,R.,1992/1993 Computer and Robot vision ,volume I and II

[6]张雄伟,陈亮等.现代语音处理技术及应用.机械工业出版社,2003

[7]Thomas F.Quatieri离散时间语音信号-原理与应用,电子工业出版社,2004

[8]郑燕林等“混合型-探究式”研究生指导模式的构建与实践,学位与研究生教育,2010

篇8

关键词: 增强现实; 双目立体视觉; 人机交互

中图分类号: TP 391.9 文献标识码: A doi: 10.3969/j.issn.10055630.2012.02.004

引 言

增强现实(augmented reality,AR)技术是在虚拟现实(virtual reality,VR)技术上发展起来的一门新兴技术,由于其广泛的应用背景,因此吸引了国内外众多科研人员加入研究,成为近年来的一个研究热点。增强现实技术涉及到仿真技术、计算机图形技术(computer graphics,CG)、图像处理技术、交互技术及传感器技术等领域,是一项综合性十分强的研究领域[1]。与虚拟现实技术将用户隔离在真实世界之外不同的是,当用户在真实世界中的位置发生变化时,虚拟信息也随之相应变化,虚拟信息与真实环境完美结

合,既避免了构建复杂真实环境的大量繁琐工作,又可对真实环境进行变动,具有很强的实时可控性,

达到了亦真亦幻的效果。正是由于增强现实与真实环境紧密联系的特性,使得增强现实技术在精密仪器

制造、医疗研究、市政规划、文物保护、影视娱乐、军事训练、装备维修等领域得到了广泛的应用。

在研究工作中搭建了一套基于增强现实的维修系统,利用增强现实良好的虚实场景结合以及人机交互功能,通过计算机视觉技术、图像识别技术以及建模仿真等技术,使该系统能够完成图像采集、立体实时显示、三维注册以及虚实融合等功能,改善了传统意义上的人工维修带来的培训成本高、效率低下等问题,较之虚拟维修也更为真实可靠。表1为增强现实维修与虚拟维修的比较表。下面将详细介绍该系统的开发环境和实现过程。

4 结 论

利用双目视觉技术、增强现实技术搭建了一个增强现实维修系统。在以ARToolKit等软件为工具的基础上,根据增强现实维修的特点和硬件系统的要求,相对其他单目摄像机增强现实系统做了如下改进工作:

(1)将原一路摄像机采集景物图像、图像识别、三维注册、虚实配准等增强现实过程变为了两路立体景物图像采集及相应增强现实过程。方法是利用双线程控制双摄像机完成图像采集和相应的增强现实过程,并将虚实融合的图像按照一定格式,分别存在缓存的不同地址,最后显示立体图像。

(2)ARToolKit模型调用支持VRML97语言描述的虚拟场景机模型,通过试验,找到了通过3DS MAX构建虚拟维修模型,并将其转换为VRML97格式虚拟模型的方法。所以虚拟维修电子数据库的建立是通过3DS MAX来完成的,包括虚拟物体的零部件的模型、贴图、动画等。

由于增强现实的虚实结合的独特性,在维修装配等领域具有很大的发展潜力和应用前景。而其它技术领域如计算机图形学、多媒体、人工智能等的不断发展和完善,也为增强现实技术提供了新的应用领域和发展空间。

参考文献:

[1] AZUMA R,BAILLOT Y,BEHRINGER R.Recent advances in augmented reality[J].IEEE Computer Graphics and Applications,2001,21(6):34-47.

[2] 马颂德,张正友.计算机视觉――计算理论与算法基础[M].北京:科学出版社,1998.

[3] 隋 婧,金伟其.双目立体视觉技术的实现及其进展[J].电子技术应用,2004(10):4-6.

[4] 段欣涛,汪岳峰,周 斌.一种数码相机几何畸变的检测方法[J].光学仪器,2011,33(1):15-18.

[5] PASMAN W,WOODWARD C.Implementation of an augmented reality system on a PDA[C]∥The Second IEEE and ACM International Symposium on Mixed and Augmented Reality,New York:IEEE,2003:276-277.

[6] MILGRAM P,KISHINO F.A taxonomy of mixed reality visual display[J].IEICE Transactions on Information Systems,1994,E77D(12):1321-1329.

[7] 张德丰,周 灵.VRML虚拟显示应用技术[M].北京:电子工业出版社,2010.

[8] 庄春华,王 普.虚拟现实技术及其应用[M].北京:电子工业出版社,2010.

篇9

3月17日,阿里巴巴宣布成立VR实验室,瞄准的是VR购物。同时,它会联合旗下的阿里影业、阿里音乐、优酷土豆,制作VR内容。而今年下半年,腾讯将基于PC端和移动端的两款VR头部显示器。

根据美国风险投资数据公司CB Insights的数据,2017年第一季度,AR/VR领域的投资项目超过80个,同比增长60%。报告还披露了Facebook和苹果分别为其A/VR工作招聘了一千多名员工。

所谓VR,就是通过计算机技术为用户模拟出逼近现实的虚拟环境。其沉浸式体验和交互方式带来的新的娱乐方式,吸引了从硬件技术到内容生产和分发的多个公司。除了阿里巴巴、腾讯、Facebook和苹果,HTC、三星、索尼等公司都在这个领域展开业务。

目前,这个行业的人才供应远低于需求。人力资源平台领英去年的一份针对全球范围内VR人才的报告显示,在领英的人才库里,有18%的人才需求来自VR行业,仅次于美国,但合适的VR人才只有2%。

熬过资本的冬天并存活下来的公司变得更加务实,而且开发了更多样化的应用场景―除了去年的影视、游戏产业,今年它们还进入到了医疗行业、制造业、零售业等新领域。

如果你对VR行业感兴趣或者看好它的前景,我们将告诉你这个领域正在找哪些人、薪水怎么样,以及怎样可以加入。

AVRO备的核心职位主要有3种

VR硬件的核心技术很复杂,涉及算法、光学、系统开发、交互、图形图像等多个领域,核心职位围绕的都是这些方向。它们也多是HTC、三星等硬件公司的VR业务范围。

算法工程师

这是VR领域最基础的职位。VR的功能是通过一副眼镜,让人既看到人眼看不到的东西,又能在虚拟空间中移动,还能对虚拟景象形成真实感,因此需要一套算法把这些感官上的功能都实现。通常,算法工程师关注的是如何解决某一类特定问题或实现某一特定功能。在VR领域,这一职位主要需要懂计算机视觉、空间定位、交互技术、图形图像等算法。

计算机视觉主要是指以摄像头代替人眼识别目标和提取特征,工程师需要探索最新的算法以及技术的可行性,负责视觉和图像的处理;空间定位指的是通过VR设备使用者能确定自己在空间中的位置,高精度的空间定位可以为用户带来更好的沉浸感并降低眩晕程度;接下来,交互算法工程师负责手势识别、视线估计、动作捕捉、追踪等相关计算机视觉算法的研发,研究实际空间中的动作如何延伸到虚拟空间中;然后是图形图像的处理,它要求在满足性能的前提下提高画质,用更快的速度和更少的资源去画像。

光学和人体工学工程师

光学要解决的是让VR设备的镜片在保证沉浸感和清晰度的同时,尽可能加大视场角,让人在佩戴VR设备时看得更清晰;人体工学关注的则是人在佩戴VR眼镜时的舒适度,设备是否透气、不漏光、足够轻盈等。目前消费级的VR产品在这方面仍处于初级阶段,如何让人更舒适持久地使用VR设备,是行业发展的瓶颈之 一。系统架构师

与成熟的智能手机、智能手表的开发系统不同,VR的系统架构到目前为止并没有行业标准,面对陌生的领域,系统架构师需要驾驭和设计整个系统,负责VR头部显示器及整个主机设备的集成。

BVR产业链上的工作还有这些

要实现VR体验,只有一部VR硬件设备可不够,可以观看的内容、节目效果,以及应用场景的开发,这些需要硬件公司以外的公司参与,Facebook等公司涉及的主要是这部分内容。

3D引擎开发和3D美术

3D引擎开发人员主要负责VR场景的搭建―戴上VR眼镜后你看到的“新世界”,就是所谓的VR场景。市场上主流的开发引擎有两种,一种是可以快速开发的Unity3D引擎,一种是可以制作恢弘场景和细致光效的虚幻4引擎,这种引擎在游戏开发中常使用。

3D美术人员则需要制作3D美术素材,将素材置入场景后,再配合引擎程序员优化游戏的性能。

内容制作

你知道,无论电影还是游戏,当你想要通过VR眼镜获得这些娱乐的时候,它们除了像一般的电影和游戏产品那样需要脚本,还需要影视制作人员使用360度全景视频的拍摄技术去拍摄和剪辑,这是二者在内容制作方法上的不同之处。

销售运营、产品经理

不同于刚起步的人工智能,VR已经迈入产业化阶段,公司除了需要尖端技术人员,对市场销售、平台运营方面的人才同样有需求。要求与其他领域大同小异,都是负责开拓市场和客户,增加产品的销售范围等。因VR企业希望快速打开市场,销售人才目前高居中国VR领域人才需求的第二位,高于全球水平。

产品经理的职责也很共通,负责其他VR公司与本公司部门的配合,制定和推进合作项目,把控整体合作项目的时间,并对最终合作质量负责。

常规开发

和任何智能硬件一样,VR也需要内置一套系统,其中包括App Store一样的平台以及应用软件,这部分工作与传统互联网、手机行业的开发工作相似,即在实现VR设备的智能化的同时,保证软件在不同平台间能流畅交互。

C要进入这个行业,需要你有这些能力和资历

技术岗位硕博优先

VR行业的岗位主要指向三个方面:硬件、软件和内容制作。

硬件领域涉及到计算机、光学、电子、机械、生物学、自动化等方向。软件需要计算机图形学、程序设计、数据结构、操作系统、算法设计与分析等相关背景。这两个方面对工科背景的人才需求更大。VR内容包括游戏、影视等,需要3D美术、拍摄方面的学术背景。

由于VR产业相对细分,产业上游硬件、软件开发的岗位会以硕士、博士学历优先,因为硕士和博士在学术领域的研究方向更为明确,企业在筛选简历时更容易适配岗位。

“如果毕业论文方向是图形图像、计算机视觉,就会非常抢手,不仅是VR行业,在人工智能领域也会受到欢迎。”科锐国际高科技行业总监田丹说。

VR行业的核心技术岗位中,招人要求最高的是算法工程师,这也是最难招聘的岗位。学历必须是硕士以上,同时是模式识别、信号处理等科班出身。另外,对深度学习和机器学习有了解是加分项。

至于市场销售、平台运营甚至内容领域的人才,这个行业对学历背景要求不高,更看中经验、人脉以及办事的灵活度。毕竟,新兴行业最需要资源嫁接能力。

应届生也有机会,尤其是海归

打开招聘网站,VR技术岗位的招聘一般以最少一年工作经验起步,往上的话,有的职位要求3到5年的工作经验,有的甚至要求10年以上的经验。这个门槛主要是因为VR技术虽然还不怎么成熟,但它是高集成性产品,需要在算法、架构、光学和人体工学等成熟技能的基础上再提出应用上的高要求。

但应届毕业生并非完全没有机会。对国内的VR公司来说,开放应届毕业生招募主要有两种情况。一是已经在行业里挖到技术领域的大牛,需要为其配备团队,因此会招聘一定比例的应届毕业生。二是产品经理这类岗位入门门槛不高,公司也愿意花时间培养。

相较而言,海归会比较受到这个行业的欢迎。微鲸VR人力资源总监Tony在为3D场景交互岗位招聘时发现,国内很少有这方面的专业人才,但德国的3D场景交互领域向硅谷输送了不少人。他后来意识到,这是因为德国的高校有对口专业,所以即使是刚毕业的应届生,Tony也会第一时间把对方请到公司来。

再说到内容领域,VR内容领域要制作哪些内容并没有明确标准。毕竟,还没有人敢下结论说:VR只能用来做什么、不能做什么。这个行业眼下正是需要创意和研究拍摄方式的时候。

D这些领域,跨行到VR更容易

游戏

游戏是VR最早被应用的场景之一。虽然VR游戏一度遇冷,但从长远角度看,从游戏行业跳到VR行业尝试新的游戏形态未尝不可。擅长技术的话,可以继续走Unity3D开发、3D建模和3D美术的路。即使有大量游戏公司仍在观望,但VR游戏带来的体验感确实是电脑、手机无法取代的。这也是HTC Vive、PS VR、Oculus等公司目前大量需求的产品。

互联网和半导体

互联网和半导体是VR行业人才来源的两大核心区域。VR行业缺少的系统架构人才在微软、IBM、AMD、英特尔或者高通都能找到。

工业设计

截至目前,用户对于VR硬件设施的体验普遍是抱怨“长久佩戴时头显过重,舒适感不够”。这就需要人体工程学领域的人才来改进产品,他们一般会从设计领域找人,尤其是工业设计。

影视

影视行业从业者主动跳到VR行业的比例相对更高。“他们对整个行业的理解和感知更多,当他们意识到有新的拍摄方式可以尝试,主动投身的人就会更多。”Tony说。他以微鲸一位制片人为例,对方在电视台累积了多年经验,有自己的工作室,同时还在高校任教,最终选择进入VR领域就是想尝试不一样的东西。

E哪些公司在寻找人才?

初创公司

新技术面前,全球企业处于同一起跑线。以技术为核心的初创公司为了站稳脚跟,同样在该领域争夺人才。暴风魔镜、蚁视、大朋、微鲸等国内VR厂商熬过资本严冬,对招聘也有了更高需求。“初级岗位不难招,要招就招核心算法,特别是如果我们想超越海外同行,招人就更重要。”大朋VR合伙人兼首席战略官章立说。

大公司

虽然无论是Facebook,还是HTC、索尼,都没有将技术研发落地中国,但巨头们为了造势,频频联合产业链上下游合作,发起各类联盟,为开发者提供诸多便利,这从另一个角度为从业者带来了更多机会。

Fa c e b o o k今年4月宣布建立首个增强现实(Augmented Reality,AR)平台,同时VR社交平台Facebook Spaces的Beta版;微软于5月10日宣布将开放Windows Mixed Reality开发者套件预购。5月18日,Google也宣布要在今年年底推出Daydream VR一体机,其首批合作伙伴是HTC和联想。

还有苹果,在6月6日的WWDC大会上,苹果宣布Mac将支持HTC Vive,开发者可在MacBook上使用SteamVR平台。同时,AR方面推出开发套件ARKit。

从这些大公司的策略中也能看出,VR已经不仅是它们手中的一张牌,混合现实(Mixed Reality,MR)、AR以及人工智能日后都将联合起来。

F这行的薪水到底怎么样?

去年5月,拉勾网了一份《VR/AR行业薪酬报告》,报告显示,技术职位在过去几年始终是核心诉求职位,即使岗位需求在2016年有所下降,也在总体岗位中占比50.5%。同时,市场方面的人才需求明显提高,2016年占比12.3%,两年间增长了一倍。

根据报告,在VR行业,无论是技术、产品还是市场、运营等岗位,薪酬水平皆高于互联网领域。去年5月,全行业技术岗位月平均薪资为1.35万元,而VR/AR行业技术岗位的月平均薪资达到了1.85万元。即使是最弱势的职能部门,薪资也高于行业平均值7100元,达到8300元/月。

Tony证实了这一现象。物以稀为贵,VR行业里技术岗薪水最高,而在技术岗里,算法工程师的薪酬排名第一。算法工程师如具备硕博学历,年薪一般在30万元至60万元,3D引擎开发人才的年薪也在30万元至40万元。这还不包括公司为留住人才发放的期权和奖金。非技术职位的薪水也会比原行业略高,但总体上相差不大。

科锐国际在《2017年薪酬指南》中也指出,在新技术领域里,计算机视觉、深度学习方向薪酬涨幅最快。人才储备主要在几家跨国公司和顶级高校,VR行业的人才薪酬已经在高点,人才流动的吸引力更多来自职位前景。不过若遇到急缺位,跳槽涨幅可能高达50%以上甚至100%,比如算法类的岗位就是如此。

G进这行前,你得有点心理准备

如果你有兴趣进入这个新兴行业试一试,章立和Tony提醒你:

篇10

【关键词】 Android系统 Mean-shift跟踪算法 Opencv视觉库 图像采集 图像处理

Abstract: Introduce the composition of Android operating system,according to the specific requirements of machine vision object tracking,design a object tracking system based on Android platform.The system collect images through camera,select the object that you want to track on the screen,the system will automatically calculate the center,draw the outline.It analyses the implementation of the system with three aspects which are the selection of the Opencv visual library,the foundation of the Android development platform and the implementation of the model function.

Keywords: Android system; Mean-shift tracking algorithm; Opencv visual library; image acquisition; image processing

物体跟踪采用Mean-shift算法,计算所选区域的灰度直方图,根据直方 图的数值分布采用Ostu最大类间方算法,计算图像的实时阈值,根据动态阈值使其能够最大限度的分割出前景与背景,并且计算所选区域的中心点坐标,绘制轮廓矩形图,从而较为精确的跟踪运动物体[1]。

一、 Android平台的搭建

Android系统平台主要由应用程序,应用程序框架,C/C++函数库,Android运行库,底层Linux内核这几部分构成[2],并且在设计中还要植入相应版本的Opencv视觉函数库,在开发应用程序中才能调用库函数实现相应的图像采集与图像处理的功能。文章中利用装载有Android系统的手机作为载体,植入Opencv Manager,根据Android应用程序的开发规则,结合对应的机器视觉函数,编写目的应用程序,在程序中要调用自身携带的摄像头进行图像的采集工作[4],屏幕作为人机交互窗口[5],供用户选择需要跟踪的物体,并在其演示跟踪的效果。

系统的工作方块图如下:

2)计算背景和目标的出现概率,计算方法如下:

pA :背景出现的概率

pB : 目标出现的概率

3)计算A和B两个区域的累间方差:

1、计算A和B区域平均灰度值:

2、计算灰度图像全局的灰度

二、Ostu最大类间方差

1)建立图像灰度直方图(共有L个灰度级,每个出现概率为p)

3、计算A、B两个区域的类间方差

以上为最大类间方差的计算方法,其中的t即为所选定的阈值,根据这一阈值实现对图像的分割。

三、运行的结果演示

选定所要跟踪目标,通过点击屏幕中的白色瓶盖[3],即可计算出瓶盖的中心,并在图中绘制出来,并且根据瓶盖的轮廓,利用矩形框包围物体物体。

可以看出当移动物体时,矩形框与物体中心跟随物体的移动,并保持在原来位置,即可达到跟踪的效果。

四、结论

在Android平台上,植入相应的库函数,并且利用Mean-shit跟踪算法以及Ostu最大类间方差算法,两者相结合即可实现物体的跟踪效果,但跟踪效果取决物体背景的颜色是否与被跟踪物体颜色反差大,反差大即可实现较好的跟踪效果,反之,效果较差。

参 考 文 献

[1] 王晨旭.浅谈计算机图像处理技术的应用[J].计算机光盘软件与应用,2011,(6):139

[2] 白文江基于Android平台的移动应用开发研究[J].太原大学学报,2011(3):117-120

[3]Chen H,Huang T.1990.Matching 3-D line segments with applications to multiple-object motion estimation. IEEE Trans, on PAMI, 12(10): 1002-1008.

[4] 张梅等.浅谈计算机视觉与数字摄影测量[J].地理空间信息,2010, 8 (2): 17-20