计算机视觉的优点范文

时间:2023-12-22 18:02:58

导语:如何才能写好一篇计算机视觉的优点,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。

计算机视觉的优点

篇1

关键词:检修;预决算;定额;ERP;Ajax;AOP/IOC

中图分类号:TP311.52

随着中国国内经济的持续发展,国有大型石化化工企业为了加快企业发展和增强市场竞争力,需对原有炼油及化工生产装置进行改造、扩建及设备检维修,这些项目的结算过程通常采用手工结算方式,即使ERP上线后,设备检维修项目的结算仍然按线下手工结算方式,这种结算方式过程中往往涉及的部门、人员较多,甚至涉及外部造价咨询机构,处理的环节和工单数量也非常多,目前采用纸质传递、手工核算,审核痕迹不便查询,各级审核人员的工作量将相当庞大,容易造成出错,同时审核效率低,对施工单位也造成诸多不便。

为了解决石油化工行业工程项目预决算管理手工核算的问题,目前国内许多企业都做了一些有意义的探索,希望通过信息系统将工程结算流程实现电子化在线执行,提高工作效率,避免因手工操作引起的人为错误等,同时在流转过程中会保留每一步的操作痕迹,并且人员的查看、修改、审核权限控制到单据的字段级别,不同人员根据分配的不同权限,处理各自的业务。此外,能与ERP系统的通过接口集成,以获取项目的相关信息,验证结算工程项目的合法性。

1 开发内容

(1)检修预决算电子化管理系统将提高检修项目结(预)算审核效率。检修项目结算整个流程涉及的部门及人员多,审核环节多,工单数量多,目前采用纸质传递、手工核算,审核效率低,审核痕迹不便查询。采用此系统后,实现全流程网上流传、审核,提高ERP劳务工单结算及时性,及时掌握检修项目结(预)算动态。

(2)本系统与ERP系统后台实时关联。此系统作为ERP工单结算的辅助系统,实时提取ERP模块每张劳务工单数据信息,在此系统实现劳务工单结算网上审核,结算终审价再按ERP操作规则,进行SES(收货过账)并对工单进行技术完结。

(3)本系统进一步提高计价定额执行的统一性。在此系统实现本公司检修计价定额库管理,进一步提升检修结算的工程量签证、结(预)算计价等表单模版的规范化管理水平,嵌入检修项目计价定额库以及常规检修项目统一计价表,对人工取费、材料费、机械台班费定期统一维护,便捷追溯检修项目计价的历史记录,对同类或类似项目计价进行查询、对比,提高审核效率。

(4)本系统强化检修项目结算的报表统计、过程跟踪、考核。按ERP工单类型、作业类型、专业类型、时间等参数,在此系统实现实时查询统计,对审核流程各环节进行跟踪、提醒等动态管理,强化管理工作绩效考核。

2 工艺技术

本开发和设计坚持继承与创新,坚持现有技术与先进性、前瞻性统一,坚持系统安全性与操作灵活性统一,坚持研究与实践紧密结合的模式。

本开发和设计的实现基于B/S结构的多层应用,客户端不需要安装应用,只需要IE或FireFox等浏览器就可以操作。由于采用HTTP协议,服务器只需对外开通“80”WEB服务端口,有效阻止网络攻击。

在实现方式采用以J2EE为技术框架,J2EE有着稳定、灵活、安全、可伸缩性强、易维护、支持异构环境、支持多种操作系统等先天的优势,有大量成功的商业系统案例,保证的系统健壮性。

使用网络WEB技术,结合ERP模块和定额库,实现预决算网上在线审批和管理。根据ERP工单确定检维修预决算书工程量签证的来源依据,进行工程量核实程序,然后根据石油化工行业定额或地方定额编制预决算书,并通过可定制的流程实现预决算书的流转过程;审批流转过程中系统记录了工程量签证和定额修改的历史痕迹和变化的过程,并且系统可以通过Ajax技术清楚的回显预结算的审核修改过程,而且施工单位可以实时跟踪预决算书审核过程;结合系统数据库可以对预决算书和各阶段审核数据即时查询和统计分析,可以达到很好地控制设备检维修费用的作用,确保设备和装置的安稳长运行。

通过AOP/IOC技术,基于系统核心工作流程,实现预决算的高效审核。通过制定控制审核限制和对接期限、ERP采购订单等业务策略,以及基于定额库关联关系,制定预决算审核过程中定额、取费等数值计算规则和策略,达到审核高效的目的。

3 结构设计

整个开发和设计分为二个层次,基础模块和业务模块,如图1所示。基础模块包括基础信息配置模块和权限管理;业务模块包括工作流模块和统计分析,工作流模块是系统的核心模块,通过配置,实现签证单和结算书的多种审核流程。

4 功能特点

4.1 网上审核,及时反馈。通过全流程网上流传、审核,及时掌握检修项目结算动态,可以有效地提高各级审核员的办事效率;同时给各个施工单位以明确的审核结果出示时间,可以有效地促进施工单位、项目所在单位和各级审核单位之间的工作协调。同时施工单位可以在本单位进行数据上传和审核结果查看、修正等工作,不用再频繁的来往于本单位和审核单位之间。

4.2 结算单数据自动核对、计算。通过网上审核,系统可以充分利用信息技术来实现结算的数据自动核对、计算;系统可以实现实时计算功能,即在用户修改单据某个数据后,马上根据修改内容自动计算相关联的数据。通过这些功能,可以大大减少审核员的工作量,避免误算,提供审核效率。

4.3 进一步提高计价定额执行的统一性。通过内置定额库管理,进一步提升结算的工程量签证、结算计价等表单模版的规范化管理水平,嵌入项目计价定额库以及常规检修项目统一计价表,对人工取费、材料费、机械台班费定期统一维护,便捷追溯检修项目计价的历史记录,对同类或类似项目计价进行查询、对比,提高审核效率和计价管理水平。

4.4 保留审核操作痕迹。在本系统中,每一步的审核过程中都会将数据修改痕迹保留下来,审核员在审核过程中可以查看前面审核人员的数据修正纪录。在结算书审核完之后,这些修改的历史纪录会保存下来,供以后核查。

4.5 历史数据查询统计。以数字信息方式存在的结算单审核数据可以有效地进行历史数据的管理,不用担心数据丢失、查询困难的问题。用户可以方便的查询历史数据,同时根据选定条件来做数据的统计和分析,把历年“死”数据盘活起来。

4.6 强化过程跟踪、考核。通过系统进行审核流程各环节进行跟踪、提醒等动态管理,分析某一段时间内的特定审核员的审核速度、准确程度,可以为对各级审核员的绩效考核提供有用的数据基础,强化管理工作绩效考核。

5 结论

实现结算书全流程网上流传、审核,减少结算过程中的计算差错、结算书丢失、查找结算书困难等问题,提高劳务工单结算及时性,及时掌握检修项目预决算动态,推进规范管理工作,强化管理工作绩效考核。大力推进工程结算管理工作进步,通过信息技术带来管理效益,同时通过和其他信息系统的整合,有效的提高企业的整体信息化水平。

参考文献:

篇2

关键词:计算机视觉;课堂考勤;深度学习;MCV架构

前言

随着国家标准《智慧校园总体框架》(Smartcampusoverallframework)的,智慧校园的规划与设计成为了校园建设的重点项目[1]。而课堂考勤作为学校教学管理、学生评价的重要组成部分,随着物联网技术、人工智能和移动通信技术的水平的提高与发展,更应该向着智能化、准确化的方向发展[2]。本文研究了的当前应用的课堂考勤方式,并做了进一步的分析,最终根据社会技术的革新与发展[3],提出了一种基于计算机视觉的实时课堂考勤系统的设计。我们的主要工作是搭建了整个系统框架,包括数据库系统、服务器、计算机视觉模型、网络通信、图像采集系统、客户端和网络通信系统。

1课堂考勤方式现状

目前校园中主要的课堂考勤方式存在为两种,分别是传统的考勤方式和生物识别的考勤方式。如图1所示,其中传统的考勤方式包括点名考勤和通过校园卡进行考勤,点名考勤的方式仍然是高校中最常用的考勤手段,因它不受场地的限制,可以根据点名册直接核对现场的学生信息,但这种方式存在的缺点就是花费时间,影响上课效率,为此有些教师不进行点名,因此影响了考勤的效果。校园卡考勤解决了点名占用课堂时间的问题,但这种方式具有学生代考勤的漏洞,因为学生可以拿着别人的校园卡进行考勤。生物识别的考勤方式包括指纹考勤和人脸识别考勤,这些方式有效解决了传统考勤方式代考勤的弊端,但这种方式受设备硬件的影响,识别能力太慢,尤其是在下课后学生较多,考勤签退时容易发生拥挤等现象,具有安全隐患[4]。因此,为解决当前考勤方式存在的一些弊端,本文设计了一种基于计算机视觉的实时课堂考勤系统。

2系统设计基础

2.1系统开发环境

本文设计的实时课堂考勤系统主要是使用Python开发语言,Python是目前最流行开发语言之一,主要应用于Web服务设计、大数据、人工智能等领域,它的主要优点是开发效率高、可扩展性强、跨平台和具有可移植性等,满足了本文系统的设计要求。另外,在开发过程还用到了基于Python的第三方软件开发包,包括Flask用于搭建系统的Web服务器;PyQt5用于搭建系统的客户端;OpenCV用于系统中对图像视频的处理;Tensoflow用于开发计算机视觉模型,搭建深度学习模型,完成人脸检测和识别任务;Mysqlclient用于管理、访问、查询和更新Mysql数据库。

2.2系统开发框架

本文设计的实时课堂考勤系统通信基于Web应用,因此选择一个合适的服务架构有利于提高系统的开发和部署效率。目前较流行的Web应用主要有MVC(ModelViewController)和CMS(ContentManagementSystem)两种架构。本文使用了基于Python和Flask搭建的MVC架构[5],该架构如图2所示,主要包括模型层、视图层和控制器。使用该框架的优点是可将视图层和业务逻辑层进行分离开发,提高开发效率,方便系统的部署、维护和管理。

3系统设计方式

3.1系统总结构设计

本文设计的实时课堂考勤系统的总体结构如图3所示。根据MVC构架的设计,我们将该系统分为了模型层、控制器层和视图层,另外还包括网络通信设备。

3.2模型层设计

模型层主要是关系型数据库模,MySQL是目前使用最多的关系型数据库系统,也是学校管理系统使用最多的数据系统,为了更好地与学校管理系统兼容,我们选择了MySQL数据库,数据表之间的关系如图4所示。

3.3控制器层设计

控制器层主要包括服务器应用软件和计算机视觉模型,服务器应用软件的功能包括系统通信配置、数据业务处理和系统各模块间的调度。计算机视觉模型是实时课堂考勤系统的核心模块,基于深度学习卷积神经网络实现[6],主要作用是进行人脸检测和识别两个部分,计算机视觉模型的工作流程如图5所示。在人脸检测阶段使用VGG16检测器作为主干网络,为提高模型的检测准确率,通过引入注意力模型和多尺度特征融合对网络进行了优化,有效地从输入图片中提取人脸位置信息,得到人脸图像。在人脸识别阶段首先使用FaceNe人脸识别网络提取人脸图像的特征图,然后通过决策树算法与待检测的人脸特征进行匹配,从而识别图片中的学生信息。

3.4视图层设计

本文设计的实时考勤系统的模型层主要包括图像采集系统和客户端。目前各学校教室内都安装有监控设备,因此为节约成本和安装消耗,图像采集系统使用教室内的监控设备作为图像采集系统,负责采集教室现场图片。客户端设计首先在本系统中采用应用程序接口,然后在教学管理系统中设计图形化用户界面,通过应用程序接口调用本系统的功能,从而减少资源浪费,方便维护和管理。

4实时考勤功能的实现

实时考勤功能的实现方式如图6所示,首先系统启动后,用户可以随时更新考勤信息,比如在数据库中创建新的考勤表等。接着系统会自动读取考勤表的信息,比如课程所在教室、上课时间。然后启动考勤程序,进行签到、签退操作,并将考勤数据保存到考勤数据表中。整个系统启动完成后可以自动运行,直到关闭系统,而且可以实时进行课堂考勤。

篇3

关键词 计算机视觉;摄像机定标方法;应用特点;线性关系;参照物

中图分类号:TP391 文献标识码:A 文章编号:1671—7597(2013)022-067-3

计算机视觉中的摄像机定标方法总得来说可以分为两类——传统的摄像机定标法和摄像机自定标法。为了能够使所获取的场景更加自然,计算机视觉系统可以通过运用摄像机定标方法,加之合理安排摄像机和计算机这两种成像装置,来对二维的图像信息进行虚拟空间的三维建模,进而控制整个摄像效果。这其中摄像及内部的一些参数起到了很大的作用,最初在计算机视觉中都是采用的传统摄像机定标方法,但是这种方法存在着一定的局限性。这种定标方法在摄像机随意运动和未知场景的安排下很难进行有效的标定。随着计算机视觉中的摄像机定标方法的不断进步和发展,以及摄像机自定标方法的诞生,使得这项技术逐渐获得了相对广泛的应用。

1 计算机视觉中与摄像机定标解析

计算机视觉的基本任务是采集一定数量的图片或视频资料并进行处理,以此来获得相应场景环境下的的三维信息。而这些三维信息与图像、视频对应点的相互关系需要通过摄像机的几何模型来决定,经过计算分析得出这些几何模型参数的过程即为摄像机定标。如此看来,计算机视觉与摄像机定标的关系密不可分,目前可知,计算机视觉与摄像机定标的结合已经运用到相关领域,如高速公路上的车辆自主导航,部分医学图像的处理,电脑中脸孔或指纹识别等。但是由于所使用的目标人群相对较窄,以及摄像机定标方法的相对局限,使得计算机视觉的摄像机定标无法广泛的运用到各个行业领域。正因如此,才加大了对计算机中摄像机定标方法的研究的必要性。下面就来对摄像机定标的两种方法进行简要的探讨。

2 传统的摄影机定标方法及应用特点

传统的摄像机定标方法主要是在相应的摄像机模型下面,通过对一系列的数学公式进行变换计算和改进优化,然后对标定的具体参照物进行科学的图像处理,最终来获取摄像机模型的主要外部参数和内部参数。但是,由于不同的标的参照物与不同的算法思路的限制,传统的摄像机定标方法也各不相同,其大致可分为以下三种:三维型——3D立体靶标定标法、平面型——2D平面靶标定标法以及以径向约束为基准的定标法。

2.1 基于3D立体靶标的摄像机定标

这种基于3D立体靶标的摄像机定标方法就是在摄像机的前面安置一个具有3D效果的立体靶标装置,然后将靶标上面的任何一个点都拿出来作为i这个参照物的特征点。在计算机视觉系统的作用下,将每一个靶标上面的特征点在整个三维坐标系中进行精确的制作测定。与此同时,摄像机首先在拍摄过程中获取靶标上面的特征点影像信息,然后对平面图像坐标系和立体空间坐标系二者的内外部数据参数排列出非线性方程,找出方程中系数矩阵的非线性关系,最后通过数学算法中的线性变换法来对整个透视系数矩阵中的每一个元素进行求解。通常在这种定标方法的应用过程中,计算机视觉系统都会忽略摄相机镜头在拍摄时的非线性畸变,将透视变幻矩阵中的相关元素定义为未知数,继而在整个定标过程确定有效的三维控制点和相应的图像点。在装置3D立体靶标后,整个摄像机定标就能够根据靶标上特征点的图像坐标和世界坐标,在数学变幻算法的应用下,计算出摄像机的内部参数和外部参数。

这种3D立体靶标的摄像机定标方法不仅能够优化定标物的获取方法,而且能够适应程序功能的改进,并且较高的精度,因而得到了广泛的应用,但是这种定标方法通常比较繁琐。

2.2 基于2D平面靶标的摄像机定标

基于2D平面靶标的摄像机定标方法在传统摄像机定标方法分类中属于一种新型的定标方法,又名张正友定标法。这种定标法具有灵活适用的特点,也是对传统摄像机定标方法的一种简化。在定标过程中首先是要在两个以上的不同方位对一个平面靶标进行摄相机拍摄,整个拍摄过程中2D平面靶标和摄相机镜头都能够自由地进行移动,而且要保持整个摄像机的内部参数一直固定。通常在基于2D平面靶标的摄像机定标法的应用中,我们都需要先假定这个靶标在三维空间坐标系中的竖轴为0,然后为了求出摄像机内外参数的优化解,要建立相应的线性模型,通过对线性模型的线性分析来计算出优化解,最后,运用最大似然法排列参数之间的非线性关系来求出其非线性解。在整个定标流程中,必须对摄像机的镜头畸变的目标函数进行综合考虑,才能够计算出摄像机的外部和内部参数。

这种方法既具有较高的精确性,又不需要很昂贵的定标成本,因此在计算机视觉系统中很为实用。但是,这种方法在进行整个摄像机内外参数的线性分析时,因为特征图像上面的直线在透视之后依然是直线,在进行图像处理的过程中,会引入一定的误差。因此,在很多具有广角镜头的摄像机定标上会出现因为镜头畸变而引起的较大误差。

2.3 基于径向约束的摄像机定标

基于径向约束的摄像机定标就是通常所说的两步法标定方法。这种方法通常是先利用径向一致约束对超定性的线性方程进行最小二乘法求解,这样就能够将除了摄像机光轴方向平移外的其他的摄像机参数,然后对摄相机镜头存在和不存在透镜畸变的情况下分别进行其他摄像机参数的求解。这种方法的计算量较为适中,而且精度也比较高,适用于摄像机的精密测量。然而,两步法对于整个定标设备的要求也高,对于简单的摄像机标定而言不易采用。

总的来说,基于径向约束的摄像机定标的精准是通过设备的复杂和精确来获得的,因此具有针对性的应用特点。

3 摄像机自定标方法及其应用特点

摄像机自定标方法是指在摄像机在移动时,周围环境中的图像会形成一定的对应关系,通过这种对应关系来对摄像机进行定标的方法,这种方法无需依赖参照物。摄像机自定标方法主要有以下四种:基于主动视觉的自定标法、基于Kruppa方程的自定标方法、分层逐步定标法以及基于二次曲面的自定标方法等。这些方法相较于传统的摄像机定标方法来说有了很大的改进和提高,下面就进行简要的探讨。

3.1 基于主动视觉的自定标法

目前,在摄像机自定标方法中的应用最为普遍的方法便是基于主动视觉的自定标法。这种方法主要是能够通过对摄像机在移动过程中的对环境中的多幅图像进行标定,进而建立对应关系来求出标定参数,由此可见,整个标定过程不需要精密的标定物,如此一来就能够使得标定问题简单化。主动视觉系统是这种标定方法的核心技术,就是摄像机在拍摄过程中被固定在了一个能够得到精确控制的移动平台上,并且这个平台的相关参数能够通过计算机进行精确的读出,在整个拍摄过程中摄像机只需要通过一定的特殊运动来获取多幅图像信息,然后在结合摄像机运动的具体参数和图像的参数来确定整个摄像机的内部和外部参数,达到摄像机定标的效果。其中基于主动视觉的自定标法的代表方法就是马颂德提出的控制摄像机的两组三正交平移运动的标定方法。后来,李华、杨长江等人对这种方法进行了改进和优化,提出了基于四组平面正交和五组平面正交运动的标定方法,并能够利用获取图像中的机电信息来对摄像机的参数进行线性表定。

这种方法算法简便,能够获得整个参数的线性解,但是这种方法对整个摄像机的运动平台要求很高,因此要求必须具有精确控制的能力。

3.2 基于Kruppa方程的自定标方法

基于Kruppa方程的自定标方法主要是在整个摄像机自定标过程中导入了Kruppa方程,并对该方程进行直接求解,从而得到整个摄像机的具体参数的方法。基于Kruppa方程的自定标方法在应用时利用了极线变幻和二次曲线像的概念对Kruppa进行推导,直接进行求解。

这种标定方法不需要对整个图像的序列进行射影重建,通常是对两个图像之间的信息建立一个方程,相较于逐步分层标定方法而言,基于Kruppa方程的自定标方法能够将某些很难做到所有图像整合到一个统一的射影框架中的情况更加具有优势,但是这种方法还是存在着一定的局限性,它无法保证在无穷远处的平面能够保持所有图像在确定的摄影平面中还具有一致性的效果。当整个摄像机拍摄的图像的序列较长的时候,基于Kruppa方程的自定标方法就显得很不稳定,继而不能够很好地算出整个摄像机的内外参数,对定标造成了一定的影响。

3.3 分层逐步定标法

分层逐步定标法是摄像机自定标方法中的一个研究热点,在摄像机自定标的实际应用中以及逐步取代了可以直接求解的基于Kruppa方程的自定标方法。分层逐步定标法在应用过程中首先需要对整个拍摄的图像序列进行摄影重建,这点和基于Kruppa方程的自定标方法一样,然后利用绝对二次曲面加以约束,最后在确定出无穷远处平面方程中的仿射参数以及摄像机内部的参数。分层逐步定标法的应用特点是必须建立在射影定标的基础之上,利用某一幅图形作为特征基准点进行射影对其,将整个摄像机自定标的未知数的数量减少,再运用数学算法中的非线性优化算法来进行未知数的求解。

这种方法的不知自出就是在进行非线性优化算法时,初值是通过事前的预估得到的,不能够保证这个方程的收敛性。由于在射影重建时,选择的基准图像不同,整个摄像机自定标的结果也会存在差异。

3.4 基于二次曲面的自定标方法

基于二次曲面的自定标方法和基于Kruppa方程的自定标方法在本质上答题一致,这两种方法都是利用了绝对二次曲面在欧式变幻算法的计算下维持的不变性进行的。最早将二次曲面的概念引入到计算机视觉系统中摄像机自定标方法的是Triggs,他在这种定标方法上作出了可行性的研究,最后形成了基于二次曲面的自定标方法。

在输入了多幅的图像并且在进行统一的射影重建的状态下,基于二次曲面的自定标方法会比基于Kruppa方程的自定标方法更加适用一些,原因就是基于二次曲面的自定标方法包含了绝对二次曲面和无穷远处平面的所有信息,进而能够办证整个图像在无穷远处平面的一致性。

4 传统摄像机定标方法与自定标方法优缺点分析

从上文可知,对于传统摄像机定标方法应该取其精华,去其糟粕;对于摄像机自定标方法,在吸取传统摄像机定标方法的优点的同时,应该加强自身的精度要求。总而言之,两种摄像机定标方法各自存在利弊,如何改进才是正确的研究方向。

4.1 传统的摄像机定标方法弊端

传统的摄像机定标方法通过实践证明,在理论上和实际运用上十分有用的,但仍有不少地方需要进一步改进,以下为它目前存在的问题所在:1)摄像机所拍摄的图像或视频存在一定噪声。在实际数据计算分析中,这种噪音无论大小,都会对内部参数的实际解造成大的干扰,并且使实际解与由约束关系所求得的解之间有着相当大的差异。因此,怎样才能够提高解的鲁棒性、减少解之间的差异性成为了传统摄像机定标亟待解决的1问题;2)线性模型所得的优化解并非全局的。由上可知,摄像机定标的实际过程便是获得实际参数的过程,即使用各种不同的优化计算方法,来获得相应的非线性方程的一组解,但实际上,以此所获得的优化解并非全局的。因此,如何变化或者提高线性方程的解答方法也很重要;3)摄像机定标参数的不确定性。一般来讲,摄像机定标参数的不确定性决定着计算参数的可信程度,同时,其对三维重建有着影响,进一步来讲,摄像机定标的不确定性也决定着约束关系的不确定性传播。因此,这个问题也需要深入进一步研究。

总之,传统摄像机的定标方法依然存在着许多无法忽视的弊端和需要解决的问题,深入研究并尽快解决这些问题,应该是传统摄像机的定标方法今后的大的研究方向。

4.2 摄像机自定标方法相关问题

目前普遍认为,摄像机自定标方法实现随时随地的校准摄像机模型参数,与传统的摄像机定标方法相比显得更为灵活先进。摄像机自定标方法无需参照物,仅仅从图像或视频的相关点中得到它们之间的约束关系,从而通过相应的分析,计算出摄像机模型的参数.这种定标方法看似毫无缺点,但自定标的精度与传统的摄像机定标方法相比,还是存在者一定的缺点,以下便是对其缺点的归纳总结:部分摄像机自定标方法所求得的解不够稳定。例如:在图像或视频存在一定噪声的情况下,实际的解与理论的解有着相当差异,或者所求得的解并不唯一。因此,解的不稳定性和精度不够的情况,不仅是传统摄像机定标方法的缺点,也是自定标方法的一个问题,提高解的精度及稳定性,是自定标研究的一个重要方向。实际上,在现在的解决方案中,各种优化算法是最常用最普遍的方法,但是,在多解的情况下,优化算法也无法能够保证得出全局的最优解。由此看来,这个问题是计算机是绝种摄像机定标方法普遍存在的关键性问题。

5 结束语

随着计算机视觉系统的不断发展,摄像机定标技术也呈现了进步的状态。综上所述,计算机视觉中的摄像机定标方法主要有传统的摄像机定标法和摄像机自定标法,对这两类的定标方法进行深入的研究能够为全面认识和了解摄像机定标方法起到很好的帮助作用。计算机视觉中的摄像机定标方法在今后的发展过程中应该得到更多的研究,但其所存在的不足和弊端也理应得到研究人员的重视。在这个多元化信息化的世界里,计算机视觉中的摄像机定标技术若能够根据现有的条件,适应如今的环境,选择合适的方法,对一些还存在局限性的环节取得更好地突破,则能够将整个定标技术提升一个高度。相信随着未来计算机视觉系统的不断扩展和不断完善,摄像机定标技术的应用范围也会越来越广阔。

参考文献

[1]宋雪峰,杨明,王宏.用于摄像机标定的网格状纹理的检测方法[A].2001年中国智能自动化会议论文集(下册)[C].2001.

[2]谭跃钢,吴正平.一种新的基于双目视模型的三维重建方法[A].中国仪器仪表学会第三届青年学术会议论文集(上)[C].2001.

[3]刘健勤,鲍光淑.面向数据采掘的自适应图象分割技术[A].中国图象图形科学技术新进展——第九届全国图象图形科技大会论文集[C].1998.

[4]洪俊田,陶剑锋,李刚,桂预风,徐晓英.基于灰色关联的数字图像去噪研究[J].武汉理工大学学报(交通科学与工程版),2006,04.

[5]赵江涛,周仁斌,刘宝源.基于线结构激光三维扫描系统的摄像机标定方法研究[A].2010振动与噪声测试峰会论文集[C].2010.

[6]王鹏,王红平.基于网格图像的双线性插值畸变校正的方法研究[A].科技创新与节能减排——吉林省第五届科学技术学术年会论文集(上册)[C].2008.

[7]程建璞,项辉宇,于修洪.基于OpenCV的视觉测量技术中摄像机标定方法[J].北京工商大学学报(自然科学版),2010,01.

[8]赵越,江南.一种基于3D矩形靶标的摄像机标定算法及其实现[A].第九届全国信息获取与处理学术会议论文集Ⅰ[C].2011.

篇4

论文关键词:表面粗糙度,非接触,光学测量

 

随着科学技术的进步和社会的发展,人们对于机械产品表面质量的要求越来越高。表面粗糙度是评价工件表面质量的一个重要指标,国内外很多学者在表面粗糙度检测方面做了大量研究工作。目前测量表面粗糙度的主要方法有:接触式测量和非接触式测量。

1 接触式测量

接触式测量就是测量装置的探测部分直接接触被测表面,能够直观地反映被测表面的信息,接触式测量方法主要是触针法,该方法经过几十年的充分发展,以其稳定、可靠的特点被广泛应用。但接触式测量存在很大的缺陷,具体表现在:(1)对高精度表面及软质金属表面有划伤破坏作用;(2)受触针尖端圆弧半径的限制,其测量精度有限;(3)因触针磨损及测量速度的限制,无法实现在线实时测量[1]。

2 非接触式测量

为了克服接触式测量方法的不足非接触,人们对非接触式测量方法进行了广泛研究。研究表明,非接触式测量方法具有非接触、无损伤、快速、测量精度高、易于实现在线测量、响应速度快等优点。目前已有的非接触式测量方法包括各种光学测量方法、超声法、扫描隧道显微镜法、基于计算机视觉技术的表面粗糙度检测方法等。这里我们只对基于光学散射原理的测量方法、基于光学干涉原理的测量方法和基于计算机视觉技术的测量方法做简单介绍论文格式模板。

2.1基于光学散射原理的测量方法

当一束光以一定的角度照射到物体表面后,加工表面的粗糙不平将引起发生散射现象。研究表明:表面粗糙度和散射光强度分布有一定的关系。对于表面粗糙度数值较小的表面,散射光能较弱,反射光能较强;反之,表面粗糙度数值较大的表面,散射光能较强,反射光能较弱。

基于光学散射原理测量表面粗糙度的研究方法和理论较多。四川联合大学和哈尔滨理工大学相继提出了一种称之为散射特征值的参数,表征被测物体表面上反射光和散射光的分散度,散射特征值与被测物体表面的粗糙度有很好的对应关系[2]。哈尔滨理工大学利用已知表面粗糙度参数值的标准样块测得其散射特征值,建立—关系曲线,从而实现利用散射特征值测量火炮内膛表面粗糙度[3]。

基于光学散射原理的表面粗糙度检测方法,具有结构简单、体积小、易于集成产品、动态响应好、适于在线测量等优点。该方法的缺点是测量精度不高,用于超光滑表面粗糙度的测量还有待进一步改进。

2.2基于光学干涉原理的测量方法

当相干光照射到工件表面同一位置时,由于光波的相互位相关系,将产生光波干涉现象。一般的干涉法测量是利用被测面和标准参考面反射的光束进行比较,对干涉条纹做适当变换,通过测量干涉条纹的相对变形来定量检测表面粗糙度。该方法的测量精度取决于光的波长。但是由于干涉条纹的分辨率是以光波波长的一半为极限的,仅从条纹的状态无法判断表面是凸起还是凹陷,因此非接触,作为一种具有较好分辨率、宽测量范围的表面粗糙度在线检测技术,这种干涉法测量技术还有待于进一步发展[4]。

基于光学干涉原理,1984年美国洛克西德导弹公司huang采用共模抑制技术研制成功了光学外差轮廓仪,光外差干涉检测技术是一种具有纳米级测量准确度的高精度光学测量方法,适用于精加工、超精加工表面的测量,而且可以进行动态时间的研究;华中理工大学采用光外差干涉方法研制出2D-SROP-1型表面粗糙度轮廓仪[5]。美国的维易科(VEECO)精密仪器有限公司,采用共光路干涉法研制了WYKO激光干涉仪和光学轮廓仪,可用来测量干涉条纹位相[6]。

基于光学干涉原理测量表面粗糙度分辨率高,适于测量超光滑表面粗糙度,但由于该方法的测量精度受光波波长的影响很大,所以其测量范围受到一定影响。

2.3基于计算机视觉技术的测量方法

基于计算机视觉的粗糙度测量方法是指使用摄像机抓取图像,然后将该图像传送至处理单元,通过数字化处理,根据像素分布和灰度、纹理、形状、颜色等信息,选用合理的算法计算工件的粗糙度参数值。近年来,随着计算机技术和工业生产的不断发展,该方法受到越来越多的关注。

北京理工大学的王仲春等人采用显微镜对检测表面进行放大,并通过对CCD采集加工表面微观图像进行处理实现了表面粗糙度的检测[7]论文格式模板。哈尔滨理工大学吴春亚、刘献礼等为解决机械加工表面粗糙度的快速、在线检测,设计了一种表面粗糙度图像检测方法,建立了图像灰度变化信息与表面粗糙度之间的关系模型[8]。英国学者Hossein Ragheb和Edwin R. Hancock通过数码相机拍摄的表面反射图来估计表面粗糙度参数非接触,运用Vernold–Harvey修正的B–K散射理论模型获得了比Oren–Nayar模型更好的粗糙度估计结果[9]。澳大利亚学者Ghassan A. Al-Kindi和Bijan Shirinzadeh对基于显微视觉的不同机械加工表面粗糙度参数获取的可行性进行了评估,讨论了照射光源与表面辐照度模型对检测的影响,结果显示尽管从视觉数据和触针数据所获得的粗糙度参数存在一定差异,但是基于视觉的方法仍是一种可靠的粗糙度参数估计方法[10-11]。

可以看出,基于计算机视觉技术的测量方法主要有统计分析、特征映射和神经网络等黑箱估计法。通过这些方法获得的表面粗糙度参数的估计值受诸多因素的影响,难以给出其准确的物理解释。真正要定量地计算出粗糙度参数,需要科学的计算。

但是随着机械加工自动化水平的提高,基于计算机视觉技术的检测方法处理内容丰富、处理精度高、处理速度快、易于集成等优点将受到越来越多的重视。

3 结束语

接触式测量测量速度较慢,容易划伤工件表面,并且不适用于连续生产材料表面的检测。非接触式测量具有无损伤、快速、测量精度高、易于实现在线测量等优点,已成为表面粗糙度检测的重点研究方向。非接触测量以光学法为主,随着计算机技术和工业生产的迅猛发展,基于计算机视觉技术的表面粗糙度非接触式检测方法受到越来越多的重视。

参考文献:

[1]刘斌,冯其波,匡萃方.表面粗糙度测量方法综述[J]. 光学仪器, 2004, 26(5): 54-55.

[2]苑惠娟等.非接触式表面粗糙度测量仪[J].哈尔滨科学技术大学学报,1995,19(6):30-34.

[3]强熙富,张咏,许文海.扩展激光散射法测量粗糙度的测量范围的研究[J].计量学报,1990,11(2):81-85.

[4]王文卓,李大勇,陈捷.表面粗糙度非接触式测量技术研究概况[J].机械工程师,2004,11:6-9.

[5]王菊香.2D-SROP-1型表面粗糙度轮廓仪[J].工业计量,1994,(4):27-29.

[6]徐德衍等.光学表面粗糙度研究的进展与方向[J].光学仪器,1996,18(1):32-41.

[7]王仲春,高岳,黄粤熙等.显微成像检测表面粗糙度[J]. 光学技术, 1998, 5: 46-48.

[8]吴春亚,刘献礼,王玉景等.机械加工表面粗糙度的图像检测方法[J]. 哈尔滨理工大学学报, 2007, 12(3): 148-151.

[9]Hossein Ragheb, Edwin R.Hancock. The modified Beckmann–Kirchhoff scattering theory for rough surfaceanalysis[J]. Pattern Recognition, 2007, 40: 2004-2020.

[10]Ghassan A. Al-Kindi, BijanShirinzadeh. An evaluation of surface roughness parameters measurement usingvision-based data[J]. International Journal of Machine Tools & Manufacture,2007, 47: 697-708.

[11]Ghassan A. Al-Kindi, BijanShirinzadeh. Feasibility assessment of vision-based surface roughnessparameters acquisition for different types of machined specimens[J]. Image andVision Computing, 2008, 6: 1-15.

篇5

关键词:数据融合传感器无损检测精确林业应用

多传感器融合系统由于具有较高的可靠性和鲁棒性,较宽的时间和空间的观测范围,较强的数据可信度和分辨能力,已广泛应用于军事、工业、农业、航天、交通管制、机器人、海洋监视和管理、目标跟踪和惯性导航等领域[1,2]。笔者在分析数据融合技术概念和内容的基础上,对该技术在林业工程中的应用及前景进行了综述。

1数据融合

1.1概念的提出

1973年,数据融合技术在美国国防部资助开发的声纳信号理解系统中得到了最早的体现。70年代末,在公开的技术文献中开始出现基于多系统的信息整合意义的融合技术。1984年美国国防部数据融合小组(DFS)定义数据融合为:“对多源的数据和信息进行多方的关联、相关和综合处理,以更好地进行定位与估计,并完全能对态势及带来的威胁进行实时评估”。

1998年1月,Buchroithner和Wald重新定义了数据融合:“数据融合是一种规范框架,这个框架里人们阐明如何使用特定的手段和工具来整合来自不同渠道的数据,以获得实际需要的信息”。

Wald定义的数据融合的概念原理中,强调以质量作为数据融合的明确目标,这正是很多关于数据融合的文献中忽略但又是非常重要的方面。这里的“质量”指经过数据融合后获得的信息对用户而言较融合前具有更高的满意度,如可改善分类精度,获得更有效、更相关的信息,甚至可更好地用于开发项目的资金、人力资源等[3]。

1.2基本内容

信息融合是生物系统所具备的一个基本功能,人类本能地将各感官获得的信息与先验知识进行综合,对周围环境和发生的事件做出估计和判断。当运用各种现代信息处理方法,通过计算机实现这一功能时,就形成了数据融合技术。

数据融合就是充分利用多传感器资源,通过对这些多传感器及观测信息的合理支配和使用,把多传感器在空间或时间上的冗余或互补信息依据某些准则进行组合,以获得被测对象的一致性解释或描述。数据融合的内容主要包括:

(1)数据关联。确定来自多传感器的数据反映的是否是同源目标。

(2)多传感器ID/轨迹估计。假设多传感器的报告反映的是同源目标,对这些数据进行综合,改进对该目标的估计,或对整个当前或未来情况的估计。

(3)采集管理。给定传感器环境的一种认识状态,通过分配多个信息捕获和处理源,最大限度地发挥其性能,从而使其操作成本降到最低。传感器的数据融合功能主要包括多传感器的目标探测、数据关联、跟踪与识别、情况评估和预测[4]。

根据融合系统所处理的信息层次,目前常将信息融合系统划分为3个层次:

(l)数据层融合。直接将各传感器的原始数据进行关联后,送入融合中心,完成对被测对象的综合评价。其优点是保持了尽可能多的原始信号信息,但是该种融合处理的信息量大、速度慢、实时性差,通常只用于数据之间配准精度较高的图像处理。

(2)特征层融合。从原始数据中提取特征,进行数据关联和归一化等处理后,送入融合中心进行分析与综合,完成对被测对象的综合评价。这种融合既保留了足够数量的原始信息,又实现了一定的数据压缩,有利于实时处理,而且由于在特征提取方面有许多成果可以借鉴,所以特征层融合是目前应用较多的一种技术。但是该技术在复杂环境中的稳健性和系统的容错性与可靠性有待进一步改善。

(3)决策层融合。首先每一传感器分别独立地完成特征提取和决策等任务,然后进行关联,再送入融合中心处理。这种方法的实质是根据一定的准则和每个决策的可信度做出最优的决策。其优点是数据通讯量小、实时性好,可以处理非同步信息,能有效地融合不同类型的信息。而且在一个或几个传感器失效时,系统仍能继续工作,具有良好的容错性,系统可靠性高,因此是目前信息融合研究的一个热点。但是这种技术也有不足,如原始信息的损失、被测对象的时变特征、先验知识的获取困难,以及知识库的巨量特性等[5,6]。

1.3处理模型

美国数据融合工作小组提出的数据融合处理模型[7],当时仅应用于军事方面,但该模型对人们理解数据融合的基本概念有重要意义。模型每个模块的基本功能如下:

数据源。包括传感器及其相关数据(数据库和人的先验知识等)。

源数据预处理。进行数据的预筛选和数据分配,以减轻融合中心的计算负担,有时需要为融合中心提供最重要的数据。目标评估。融合目标的位置、速度、身份等参数,以达到对这些参数的精确表达。主要包括数据配准、跟踪和数据关联、辨识。

态势评估。根据当前的环境推断出检测目标与事件之间的关系,以判断检测目标的意图。威胁评估。结合当前的态势判断对方的威胁程度和敌我双方的攻击能力等,这一过程应同时考虑当前的政治环境和对敌策略等因素,所以较为困难。

处理过程评估。监视系统的性能,辨识改善性能所需的数据,进行传感器资源的合理配置。人机接口。提供人与计算机间的交互功能,如人工操作员的指导和评价、多媒体功能等。

2多传感器在林业中的应用

2.1在森林防火中的应用

在用MODIS(ModerateResolutionImagingSpectroradiometer)数据测定森林火点时的20、22、23波段的传感器辐射值已达饱和状态,用一般图像增强处理方法探测燃烧区火点的结果不理想。余启刚运用数据融合技术,在空间分辨率为1000m的热辐射通道的数据外加入空间分辨率为250m的可见光通道的数据,较好地进行了不同空间分辨率信息的数据融合,大大提高了对火点位置的判断准确度[8]。为进一步提高卫星光谱图像数据分析的准确性与可靠性,利用原有森林防火用的林区红外探测器网,将其与卫星光谱图像数据融合,可以使计算机获得GPS接收机输出的有关信息通过与RS实现高效互补性融合,从而弥补卫星图谱不理想的缺失区数据信息,大大提高燃烧区火点信息准确度和敏感性。

2.2森林蓄积特征的估计

HampusHolmstrom等在瑞典南部的试验区将SPOT-4×S卫星数据和CARABAS-IIVHFSAR传感器的雷达数据进行了融合,采用KNN(knearestneighbor)方法对森林的蓄积特征(林分蓄积、树种组成与年龄)进行了估计[9]。

KNN方法就是采用目标样地邻近k个(k=10)最近样地的加权来估计目标样地的森林特征。研究者应用卫星光谱数据、雷达数据融合技术对试验区的不同林分的蓄积特征进行估计,并对三种不同的数据方法进行误差分析。试验表明,融合后的数据作出的估计比单一的卫星数据或雷达数据的精度高且稳定性好。

2.3用非垂直航空摄像数据融合GIS信息更新调查数据

森林资源调查是掌握森林资源现状与变化的调查方法,一般以地面调查的方法为主,我国5年复查一次。由于森林资源调查的工作量巨大,且要花费大量的人力、物力和资金。国内外许多学者都在探索航空、航天的遥感调查与估计方法。

TrevorJDavis等2002年提出采用非垂直的航空摄影数据融合对应的GIS数据信息实现森林调查数据的快速更新,认为对森林资源整体而言,仅某些特殊地区的资源数据需要更新。在直升飞机侧面装上可视的数字摄像装置,利用GPS对测点进行定位,对特殊地区的摄像进行拍摄,同时与对应的GIS数据进行融合,做出资源变化的估计或影像的修正[10]。

试验表明,融合后的数据可以同高分辨率矫正图像相比,该方法花费少,精度高,能充分利用影像的可视性,应用于偏远、地形复杂、不易操作、成本高的区域,同时可避免遥感图像受云层遮盖。

3数据融合在林业中的应用展望

3.1在木材检测中的应用

3.1.1木材缺陷及其影响

木材是天然生长的有机体,生长过程中不可避免地有尖削度、弯曲度、节子等生长缺陷,这些缺陷极大地影响了木材及其制品的优良特性,以及木材的使用率、强度、外观质量,并限制了其应用领域。在传统木制品生产过程中,主要依靠人的肉眼来识别木材缺陷,而木材板材表面缺陷在大小、形状和色泽上都有较大的差异,且受木材纹理的影响,识别起来非常困难,劳动强度大,效率低,同时由于熟练程度、标准掌握等人为因素,可能造成较大的误差。另外在集成材加工中,板材缺陷的非双面识别严重影响了生产线的生产节拍。因此必须开发一种能够对板材双面缺陷进行在线识别和自动剔除技术,以解决集成材加工中节子人工识别误差大、难以实现双面识别、剔除机械调整时间长等问题。

3.1.2单一传感器在木材检测中的应用

对木材及人造板进行无损检测的方法很多,如超声波、微波、射线、机械应力、震动、冲击应力波、快速傅立叶变换分析等检测方法[11,12]。超声技术在木材工业中的应用研究主要集中在研究声波与木材种类、木材结构和性能之间的关系、木材结构及缺陷分析、胶的固化过程分析等[13]。

随着计算机视觉技术的发展,人们也将视觉传感器应用于木材检测中。新西兰科学家用视频传感器研究和测量了纸浆中的纤维横切面的宽度、厚度、壁面积、壁厚度、腔比率、壁比率等,同时准确地测量单个纤维和全部纤维的几何尺寸及其变化趋势,能够区分不同纸浆类型,测定木材纤维材料加固结合力,并动态地观察木材纤维在材料中的结合机理。

新西兰的基于视觉传感器的板材缺陷识别的软件已经产业化,该软件利用数码相机或激光扫描仪采集板材的图像,自动识别板材节子和缺陷的位置,控制板材的加工。该软件还具有进行原木三维模型真实再现的计算机视觉识别功能,利用激光扫描仪自动采集原木的三维几何数据。

美国林产品实验室利用计算机视觉技术对木材刨花的尺寸大小进行分级,确定各种刨花在板中的比例和刨花的排列方向;日本京都大学基于视觉传感器进行了定向刨花板内刨花定向程度的检测,从而可以通过调整定向铺装设备优化刨花的排列方向来提高定向刨花板的强度。

在制材加工过程中,利用计算机视觉技术在线实时检测原木的形状及尺寸,选择最佳下锯方法,提高原木的出材率。同时可对锯材的质量进行分级,实现木材的优化使用;在胶合板的生产过程中,利用计算机视觉技术在线实时检测单板上的各种缺陷,实现单板的智能和自动剪切,并可测量在剪切过程中的单板破损率,对单板进行分等分级,实现自动化生产过程。Wengert等在综合了大量的板材分类经验的基础上,建立了板材分级分类的计算机视觉专家系统。在国内这方面的研究较少,王金满等用计算机视觉技术对刨花板施胶效果进行了定量分析[14]。

X射线对木材及木质复合材料的性能检测已得到了广泛的应用,目前该技术主要应用于对木材密度、含水率、纤维素相对结晶度和结晶区大小、纤维的化学结构和性质等进行检测,并对木材内部的各种缺陷进行检测。

3.1.3数据融合在木材检测中的应用展望

单一传感器在木材工业中已得到了一定程度的应用,但各种单项技术在应用上存在一定的局限性。如视觉传感器不能检测到有些与木材具有相同颜色的节子,有时会把木板上的脏物或油脂当成节子,造成误判,有时也会受到木材的种类或粗糙度和湿度的影响,此外,这种技术只能检测部分表面缺陷,而无法检测到内部缺陷;超声、微波、核磁共振和X射线技术均能测量密度及内部特征,但是它们不能测定木材的颜色和瑕疵,因为这些缺陷的密度往往同木板相同。因此,一个理想的检测系统应该集成各种传感技术,才能准确、可靠地检测到木材的缺陷[15,16]。

基于多传感器(机器视觉及X射线等)数据融合技术的木材及木制品表面缺陷检测,可以集成多个传统单项技术,更可靠、准确地实时检测出木材表面的各种缺陷,为实现木材分级自动化、智能化奠定基础,同时为集裁除锯、自动调整、自动裁除节子等为一身的新型视频识别集成材双面节子数控自动剔除成套设备提供技术支持。

3.2在精确林业中的应用

美国华盛顿大学研究人员开展了树形自动分析、林业作业规划等研究工作;Auburn大学的生物系统工程系和USDA南方林业实验站与有关公司合作开展用GPS和其他传感器研究林业机器系统的性能和生产效率。

目前单项的GPS、RS、GIS正从“自动化孤岛”形式应用于林业生产向集成技术转变。林业生产系统作为一个多组分的复杂系统,是由能量流动、物质循环、信息流动所推动的具有一定的结构和功能的复合体,各组分间的关系和结合方式影响系统整体的结构和功能。因此应该在计算机集成系统框架下,有效地融合GPS、GIS、RS等数据,解决这些信息在空间和时间上的质的差异及空间数据类型的多样性,如地理统计数据、栅格数据、点数据等。利用智能DSS(决策支持系统)以及VRT(可变量技术)等,使林业生产成为一个高效、柔性和开放的体系,从而实现林业生产的标准化、规范化、开放性,建立基于信息流融合的精确林业系统。

南京林业大学提出了“精确林业工程系统”[17]。研究包括精确林业工程系统的领域体系结构、随时空变化的数据采集处理与融合技术、精确控制林业生产的智能决策支持系统、可变量控制技术等,实现基于自然界生物及其所赖以生存的环境资源的时空变异性的客观现实,以最小资源投入、最小环境危害和最大产出效益为目标,建立关于林业管理系统战略思想的精确林业微观管理系统。

[参考文献]

[1]高翔,王勇.数据融合技术综述[J].计算机控制与测量,2002,10(11):706-709.

[2]龚元明,萧德云,王俊杰.多传感器数据融合技术(上)[J].冶金自动化,2002(4):4-7.

[3]钱永兰,杨邦杰,雷廷武.数据融合及其在农情遥感监测中的应用与展望[J].农业工程学报,2004,20(4):286-290.

[4]高德平,黄雪梅.多传感器和数据融合(一)[J].红外与激光工程,1999,28(1):1-4.

[5]王耀南,李树涛.多传感器信息融合及其应用综述[J].控制与决策,2001,16(5):518-52.

[6]许军,罗飞路,张耀辉.多传感器信息融合技术在无损检测中的应用研究[J].无损检测,2000,22(8):342-344.

[7]WhiteFE.Datafusionlexicon:DatafusionsubpanelofthejointdirectorsoflaboratoriestechnicalpanelforC3[R].SanDiego,1991.

[8]余启刚.数据融合技术在“3S”森林防火中的应用[J].森林工程,2003,19(4):5-6.

[9]HampusHolmstrom,biningremotelysensedopticalandradardatainKNN-estimationofforest[J].ForestScience,2003,49(3):409-418.

[10]TrevorJDavis,BrianKlinkenberg,PeterKellerC.Updatinginventory:Usingobliquevideogrammetry&datafusion[J].JournalofForestry,2002,100(2):45-50.

[11]杨春梅,胡万义,白帆,等.木材缺陷检测理论及方法的发展[J].林业机械与木工设备,2004,32(3):8-10.

[12]胡英成,顾继友,王逢瑚.木材及人造板物理力学性能无损检测技术研究的发展与展望[J].世界林业研究,2002,15(4):39-46.

[13]肖忠平,卢晓宁,陆继圣.木质材料X射线与超声检测技术研究的发展与展望[J].木材加工机械,2004,15(1):25-27.

[14]王金满,周秀荣.刨花板施胶效果计算机视觉分析方法[J].东北林业大学学报,1994,22(3):25-26.

[15]KlinkhachornP.Prototypinganautomatedlumberprocessingsystem[J].ForestProductsJournal,1993(2):11-18.

篇6

关键词:

俯仰角; 圆形目标; 透视投影; 测量方法

中图分类号: TP 242.6 文献标识码: A

引 言

在计算机视觉领域内,空间目标的位置和姿态是非常关键的参数,尤其是在视觉导航、目标识别以及人机交互等方面[1,2]。圆是物体的基本几何形状,在许多自然景物和人造物体中大量存在,并且圆形是一种几何特征明显且容易识别的形状,在图像处理中有着其它几何形状无法比拟的优点。圆形特征已经被应用在各种机器视觉相关的领域[3]。例如,使用圆形标志来进行移动机器人位置的精确估计,使用圆形标志物来进行三维物体的识别,以及使用圆形表面轮廓来进行目标的三维姿态估计等[4]。

作为姿态角的一种,俯仰角在许多领域起着重要作用。在火箭发射过程中,火箭的俯仰角等姿态参数是反映火箭飞行状态的重要参数,对于分析火箭的运动状态等有着重要的价值[5]。无人机及其它飞行器在飞行及着陆的过程中,也需要实时估计其姿态角等参数[6,7]。在头盔瞄准具中,射击目标的位置是依靠头部的运动来确定的,头部的俯仰角等姿态角测量,关系到射击的命中率[8]。而在计算机视觉领域,通过摄像测量获得距离等参数已经应用于汽车自动测距等,而摄像机的俯仰角参数直接影响着所测距离的精确度[9]。对于空间圆形目标的姿态角,国内外已经开始了相关研究。SafaeeRad等人[4]使用几何分析的方法,提出了一种圆形目标的三维定位问题的闭合分析解。魏振中[3,10]等人研究了中心畸变误差及空间圆姿态识别二义性的消除问题。现有的俯仰角测量方法,计算较为复杂。

现作为探索性研究,基于摄像机透视投影原理,对空间圆形目标的俯仰运动及俯仰角的测量进行研究,提出一种测量空间圆形目标俯仰角的方法。

1 圆形目标的俯仰运动及俯仰角测量

俯仰角最早出现在航空航天领域,定义为机体坐标系X轴与水平面的夹角。当X轴的正半轴位于过坐标原点的水平面之上时,俯仰角为正,俯仰角θ的范围为[-π/2,π/2]。

由于设定摄像机光心与圆形目标之间的距离相对圆形目标的直径来说非常大,并且圆形目标可在摄像机成像平面上完全成像,成像部位为感光器件中央或靠近中央位置,因此不考虑因摄像机镜头畸变等因素而带来的影响。结合运动分析的方法,现对圆形目标的俯仰运动进行研究。不妨设定圆形目标的初始位置,并根据俯仰运动的旋转轴是否通过其圆心,将俯仰运动分为以下两种情况来分别进行分析。

3 结 论

文中研究了空间圆形目标的俯仰运动,提出了一种基于摄像机透视投影原理的空间圆形目标俯仰角的测量方法。根据圆形目标的俯仰运动旋转轴是否通过其圆心,将俯仰运动分为两类。通过分析空间圆形目标在不同姿态时的透视投影成像,使用几何推理的方法,分别推导出了空间圆形目标两种俯仰运动俯仰角的计算公式,并通过实验进行了验证。结果表明,所提出的方法,能够很好地实现空间圆形目标俯仰角的测量。如何提高现场的测量和计算结果的精度,都将是进一步的研究工作。

参考文献:

[1] LU Y,LEINONEN T.Solution and simulation of positionorientation for multispatial 3RPS parallel mechanisms in series connection[J].Multibody System Dynamics,2005,14(1):47-60.

[2] FANTONI C.3D surface orientation based on a novel representation of the orientation disparity field[J].Vision Research,2008,48(25):2509-2522.

[3] 魏振忠,张广军.视觉检测中椭圆中心成像畸变误差模型研究[J].北京航空航天大学学报,2003,29(2):140-143.

[4] SAFAEERAD R,TCHOUKANOV I,SMITH K C,et al.Threedimensional location estimation of circular features for machine vision[J].IEEE Trans Robot Automat,1992,8(2):624-640.

[5] 于起峰,孙祥一,陈国军.用光测图像确定空间目标俯仰角和偏航角的中轴线法[J].国防科技大学学报,2000,22(2):15-19.

[6] 潘 翔,马德强,吴贻军,等.基于视觉着陆的无人机俯仰角与高度估计[J].浙江大学学报(工学版),2009,43(4):692-696.

[7] 赵世峰,张 海,范耀祖.一种基于计算机视觉的飞行器姿态估计算法[J].北京航空航天大学学报,2006,32(8):885-898.

[8] 王 超,魏生民,周继红,等.视频图像技术在头部位置跟踪上的应用研究[J].现代制造工程,2008(2):111-115.

篇7

关键词:计算机视觉;跟踪算法;综述;人数统计

中图分类号:TP391 文献标识码:A DOI:10.3969/j.issn.1003-6970.2013.03.003

0 引言

计算机视觉作为一门多学科的交叉领域,涉及图像处理、计算机图形学、模式识别、人工智能、人工神经网络、计算机、数学、心理学、生理学和物理学等。本文是对视频人数统计技术的综述,属于智能视频监控范畴。

由于智能视屏监控的挑战性以及其巨大的应用价值,越来越多的学校、研究所以及公司的研究人员投入到该领域中来。麻省理工学院、卡内基梅隆大学以及其他国外著名大学成立了专门的计算机视觉及多媒体方向的实验室;Nice和Object video等公司已经针对飞机场、国界线等应用场合开发了一些相应的智能监控系统。国际上的高级视频和录像(Advanced Videoand Signal-Based Surveillance)论坛每年都会举办PETS(Performance Evaluation of Tracking Systems)会议专门针对于人群行为分析,包括群体人数统计,人流密度估计;对单个人员以及群体中个体进行跟踪;特殊群体和特殊事件检测等。本文主要针对视频人数识别这个研究方向,从基于特征点、颜色与形状信息、模板匹配三种不同类型识别跟踪方式分析了近些年来国内外的研究工作及最新进展,通过对各种不同识别方法比较,对当前亟需解决的问题做了详细的分析。

1 人数识别研究现状

人数统计算法融合了运动物体检测、行人检测与分割、形状分析、特征提取和目标跟踪等多个领域的技术。从采用的手段来讲可以分为直接法和间接法:直接法(或称基于检测的),即首先在场景中检测出每个行人,再计数。第二种称为间接法(也称为基于映射或基于度量的),一般是建立场景特征与行人数量的函数关系来测算人数。在行人高度密集的场景中,间接法比直接法更加可靠,主要因为直接法无法有效分割每个行人,特别是在行人高度密集的场景中,从20世纪90年代起到目前为止这近20年里,出现了众多的视觉跟踪算法,1988年,Aggarwal和Nanadhakumar对运动图像分析算法进行了总结,将算法分为两类,一类是基于光流法的分析,另一类是基于特征点的分析,此后在视觉跟踪领域中,又出现了许多新的方法,目前,视频中人数的跟踪方法大致分为三类,分别是基于区域的跟踪、基于特征点的跟踪、基于模板和模型的跟踪,这种分类方法概括了目前大多数视觉跟踪算法,因此下面用这种分类方法对视觉跟踪算法进行介绍。

1.1 基于特征的人数识别

基于特征的人数跟踪算法选取目标的某个或某些局部特征作为相关时的对象,这种算法的优点在于即使目标的某一部分被遮挡,只要还有一部分特征可以被看到,就可以完成跟踪任务,另外,这种方法与卡尔曼滤波器联合使用,也具有很好的跟踪效果。这种算法的难点是:对某个运动目标,如何确定它的唯一特征集?这也是一个模式识别问题,若采用特征过多,系统效率将降低,且容易产生错误,文献对这一问题进行了讨论,在特征提取时,一般采用Canny算子获得目标的边缘特征,而采用SUSAN算子获得目标的角点信息。有关基于特征的跟踪算法还可参见文献。在2009年,Albiol使用角点个数作为场景特征来估测人数,首先通过Harris角检测器检测出图像角点,然后进行角点匹配以区分人身上的角点和背景角点,Albiol认为每帧总人数与人身上角点的个数成正比例关系,以此估测人数,算法虽然简单,但在PETS 2010“人数统计与密度估计”竞赛中取得优胜。2010年,Conte等“”基于Albiol的方法提出改进。采用的SURF(Speed up Ro.bust Feature)特征点以代替角点,同时,Conte等不仅考虑到特征点个数对人数估测的影响,还考虑到透视投影(拍摄距离d)密度人群遮掩(特征点密度p)对于估测的影响,同时对所有SURF点进行分组回归以提高精度,在这个基础上张茂军等相比Conte等的研究成果在处理远距离人群上精度提高,主要因为使用“非最大抑制聚类”——对不同拍摄距离的人群采取不同的聚类标准,有效解决远距离人群的类过大问题,提取人身上特征点的方法是在掩模上直接检测特征点,使得特征点个数更加稳定,有利于SVM预测。

1.2 基于区域的人数识别

基于区域的跟踪算法基本思想是:首先得包含目标的模板(Template),该模板通过图像分割获得或是预先人为确定,模板通常为略大于目标的矩形,也可为不规则形状;然后在序列图像中,运用相关算法跟踪目标,对灰度图像可以采用基于纹理和特征的相关,对彩色图像还可利用基于颜色的相关。

McKenna等首先利用色彩和梯度信息建立自适应的背景模型,并且利用背景减除方法提取运动区域,有效地消除了影子的影响;然后,跟踪过程在区域、人、人群三个抽象级别上执行,区域可以合并和分离,而人是由许多身体部分区域在满足几何约束的条件下组成的,同时人群又是由单个的人组成的,因此利用区域跟踪器并结合人的表面颜色模型,在遮挡情况下也能够较好地完成多人的跟踪。Marana等认为低密度人群在图像上体现出粗糙纹理特征,而高密度人群则体现出精细纹理特征。文献分别采用自组织理论和Minkowsld不规则维度理论从图像纹理特征预测人群密度。Lin等则结合Harr小波变换(HWT)和支持向量机(SVM)进行行人头部轮廓检测,从而达到人数统计的目的。文献利用颜色和形状信息实现人头的检测,包含两个步骤:黑色区域提取和形状分析。通过对HSV空间V通道的像素设置阈值这种方法有效地检测出黑色区域,同时可以少受光照变化和阴影的影响。使用一种基于形状描述的快速弧形结构提取方法实现人头检测。姬红兵等提出了一种基于局部特征的目标跟踪算法,通过多尺度分析方法,根据颜色和空间上的相似性将目标分割为多个区域,每个区域由一个团块表示,团块包含了该区域所有像素的颜色均值、形状和位置,根据团块特征构造目标的外观模型,定义团块的匹配准则,通过团块匹配进行目标跟踪。

1.3 基于模板匹配的人数识别

采用模板匹配识别跟踪方法首先将图像序列转换为一组静态形状模式然后在识别过程中和预先存储的行为标本相比较,

部分学者在运动前景提取的基础上使用了轮廓匹配方法对目标进行定位,文献使用了半圆模型搜索前景中人头肩所在位置,然后使用Snake模型与卡尔曼滤波相结合对目标进行跟踪目标,但Snake模型比较适合单目标的跟踪,当行人发生重叠时,定位精度会有一定的下降;在此基础上文献提出使用含有人harr特征分类器(使用头肩部上半身样本),对行人重叠情况下的检测精度有一定的提升。文献提出使用垂直摄像头降低行人之间的遮挡程度,通过对基于AdaBoost的人头检测本方法,建立一个良好的人头检测分类器。然后根据运动人头的特征去除误检区域。最后配合过线跟踪实现出入口人数统计。

2 视频跟踪问题中的难点

从上面的阐述可以看出,各种方法都有自己的优点和不足,是在文献基础上分析得到的几种具体识别方法的比较结果,由于各种方法在设定理想情况下都有较好的准确率,所以不对各种方法的准确率做出比较,而是从各种算法的复杂度、鲁棒性、先验知识需求、高密度复杂人群适应性(有遮挡出现)等方面进行相对的比较分析,分析结果如表1。

2.1 视觉跟踪问题中的难点

从控制的观点来看,视觉跟踪问题所面临的主要难点可以归结为对视觉跟踪算法在三个方面的要求,即对算法的鲁棒性、准确性和快速性。

鲁棒性是指视觉跟踪算法能够在各种环境条件下实现对运动目标持续稳定的跟踪。影响人数跟踪系统鲁棒性的最主要原因在于目标处环境的光照变化以及部分遮挡引起的运动目标不规则变形和全部遮挡引起的目标的暂时消失。当运动目标所处环境的光照发生改变时,采用图像灰度信息或色彩信息作为跟踪基础的视觉跟踪算法一般都会失效,而基于图像特征的方法往往不受光照改变的影响,如利用运动目标的边缘信息能有效避免光照变化对运动目标的影响,但在复杂环境中要将运动目标的边缘和周围其它目标边缘区分开来是非常困难的,遮挡问题是视觉跟踪算法中又一难点问题,利用单摄像机解决遮挡问题也一直是视觉跟踪领域中的热点。而利用多摄像机可以在很大程度上解决这一问题,但正如前所述,多摄像机的应用又会引入新的难题。

在视觉跟踪研究中,准确性包括两个方面,一是指对运动目标检测的准确性,另一个是指对运动目标分割的准确性,对运动目标检测准确性的目的是尽量避免运动目标虚检和漏检,从而提高对真实运动目标的检测概率。由于实际复杂环境中存在大量噪声。至今已经出现了上千种各种类型的分割算法,但由于尚无通用的分割理论,目前并没有一种适合于所有图像的通用分割算法。

一个实用的视觉跟踪系统必须能够实现对运动目标的实时跟踪,这就要求视觉跟踪算法必须具有快速性但是,视觉跟踪算法处理的对象是包含巨大数据量的图像,这些算法往往需要大量的运算时间,很难达到实时处理的要求,通常,简单算法能够实现实时跟踪,但跟踪精度却很差;复杂算法具有很高的跟踪精度,实时性却很差,一种通用的减小视觉跟踪算法运算量的方法是利用金字塔分解或小波变换将图像分层处理。

3 展望与结束语

3.1 展望

实现一个具有鲁棒性、准确性和快速性的视觉跟踪系统是当前视觉跟踪技术努力的方向。但视觉跟踪技术在这几个方面中每前进一步都是非常困难的,因为该技术的发展与人的感知特性的研究紧密联系在一起,由于目前对人的感知特性没有一个主流的理论,其数学模型更是难以建立。同时,在计算机视觉中大多数问题是不确定的,这就更增加了视觉跟踪技术发展的难度。但是,近几十年来,数学理论方面取得了巨大的进步,因此合理的使用在数学理论方面的知识提高系统的性能能够很好的解决视觉跟踪问题。例如现在已经应用在诸多领域的模糊算法,神经网络等提高系统性能,简化计算复杂度。

3.2 结束语

篇8

关键词:图像分割;阈值分割;Otsu算法

中图分类号:TP312

在图像处理、模式识别和计算机视觉领域,图像分割对于许多图像分析和处理的任务来说是一个基石。因为人们往往仅对图像中的某些部分感兴趣,所以希望将这些相关区域分离并提取出来以进行进一步的应用,如进行特征提取和测量。图像分割是解决此类问题的方法。图像分割是把图像分成各具特征的区域并提取出感兴趣目标的技术和过程。图像分割技术是一项计算机领域里的经典的研究课题,计算机视觉中的图像理解包括目标检测、特征提取和目标识别等,都依赖图像分割的质量。

因为分割质量的好坏将直接影响图像处理的后续工作的进行,所以对图像分割的研究一直是图像技术研究中的热点和难点之一。到目前为止已经出现了许多图像分割技术,如:基于阈值的分割方法、基于区域的分割方法、基于边缘的分割方法以及基于特定理论的分割方法等。其中阈值分割算法是应用在图像分割领域的最流行的技术。阈值分割是最早提出的图像分割方法之一,具有简单、快速的优点。阈值分割算法的基本思想是通过处于图像灰度取值范围之中的灰度阈值将图像划分成不同的区域,从而达到分割的目的,其中最常见的一种方法,是将图像划分为两部分,即前景和背景。阈值分割的关键是阈值的选取。阈值分割算法具有悠久的历史,并广泛应用于图像分析与目标识别等方面。常用的阈值分割算法有最小误差法、最大类间方差法、P-tile法、双峰法、灰度直方图凹度分析法、最大熵法与Otsu方法等。

在这些阈值分割算法中,Otsu法是最流行的方法之一。由于Otsu法拥有计算简单、实时性高、鲁棒性强等优点,所以被广泛使用。Otsu法是由日本人大津首先提出的,也称“大津阈值法”或“最大类间方差法”。该方法是基于图像中前景和背景两类别的可分离性提出的。在一些免费的或是商业的软件上,如GIMP或是MATLAB,都采用Otsu法来进行图像的自动阈值分割。在图像阈值分割中,确定最佳的阈值t*往往是基于估计的位置和散度。像其他的方法一样,Otsu方法采用取样的方式和样本分布的偏差来估计位置和散度。然而,如果这些图像的分布是非常倾斜的或是有异常数据等情况出现时,Otsu分割算法提供的结果通常不令人满意。为了解决这一问题,我们提出了一种基于中值的Otsu分割方法,并且它与原来的Otsu方法相比可以得到非常令人满意的结果。

假设在灰度值为L的灰度图像中,灰度值为i的像素个数用ni表示,总的像素个数用n表示;pi表示灰度图像中灰度值i出现的频率,则pi=ni/n。将图像中的像素按灰度值用阈值t分成两类,设为C0和C1,其中C0={0,1,…,t},C1={t+1,t+2,…,L-1}。

则这两类像素出现的概率分别是:

ω0= pi= ω(t),ω1= pi=1- ω(t)

这两类像素出现的均值分别是:

μ0= i = ,μ1= i =

图像总均值表示为:

而且我们可以发现:

设ω0和ω1代表前景和背景的概率。μ0,μ1,μT表示前景,背景和整个图像的灰度值的平均值。设表示两类的类间方差,则

最终,最佳阈值t*为

传统的二维Otsu法是通过均值来确定最佳阈值,对于那些直方图呈双峰分布的图像,该算法具有十分优秀的分割效果。然而,因为均值的鲁棒性较差,若直方图是单峰的或是接近单峰的时候,亦或是有异常数据时会失败。

我们知道,当直方图的分布是倾斜的,或当有异常数据等情况出现时,中值比均值具有更强的鲁棒性。所以我们用中值来代替原式中的均值,以尝试获得更好的阈值和分割结果。

原式中的μ0,μ1,μT可以被中值m0,m1,mT所替代,于是在C0和C1的类间方差可以重写为

最优的阈值t*为

在验证本文的实验中,传统的Otsu方法和我们改进的Otsu方法都在Visual C++ 2008软件上进行测试,应用的计算机的CPU型号是AMD Athlon 7750 Dual-Core 2.7GHz,内存是2G RAM,系统是Windows XP platform。通过实验我们可以发现改进的Otsu方法得到的阈值分割的结果是令人满意的,而传统的Otsu方法得到的阈值分割的结果并不理想。

结论:在本文中,我们提出了一种基于中值的Otsu图像阈值分割算法。传统的二维Otsu方法对于双峰分布的直方图提供了令人满意的结果,但是,如果直方图是单峰的或是接近单峰时所得到的结果并不理想。我们知道,当直方图的分布是倾斜的,或当有异常数据等情况出现时,中值比均值具有更强的鲁棒性。在这样的情况下,我们用中值取代均值来进行背景和前景以及整个图像的Otsu法分割。与原来的Otsu方法相比,这种方法提供了更优的阈值和令人满意的阈值分割的结果。

参考文献:

[1]W Niblack.An Introduction to Digital Image Processing[M].Prentice Hall,Englewood Cliffs,NJ,1986:115-116.

[2]J Sauvola and M Pietikainen.Adaptive Document Image Binarization[J].Pattern Recognition,2000,33(2):225-236.

[3]B Gatos,I Pratikakis and S J Perantonis.Adaptive Degraded Document Image Binarization[J].Pattern Recognition,2006,39(3):317-327.

[4]F Moghaddam and M Cheriet.A Multi-scale Framework for Adaptive Binarization of Degraded Document Images[J].Pattern Recognition,2010,43(6):2186-2198.

[5]C H Chou,W H Lin and F Chang.A Binarization Method with Learning-build Rules for Document Images Produced by Cameras[J].Pattern Recognition,2010,43(4):1518-1530.

[6]Y T Pai,Y F Chang and S J Ruan.Adaptive Thresholding Algorithm:Efficient Computation Technique Based on Intelligent Block Detection for Degraded Document Images[J].Pattern Recognition,2010,43(9):3177-3187.

[7]Chierr Hsing.Chou,Werr Hsiung Lin,Fu Chang.A binarization method with learning build rules for document images produced by cameras[J].Pattern Recognition,2010,43(4):1508-1530.

篇9

关键词:SIFT;相似性度量;图像匹配

引言

在计算机视觉领域,图像匹配仍然是当前研究的热点问题。基于特征的匹配方法[1],因为根据图像中趋于稳定的少量特征进行匹配,使得运算速度快、匹配效果好,所以成为目前研究最多、应用最广泛的一种方法。但是,这种方法需要在图像间进行遍历性的匹配运算,存在计算量大,且精度不高的问题。

1999年,Lowe提出了SIFT(Scale Invariant Feature Transform)算法[2],该算法利用高斯差分在图像的多尺度空间中快速求解高斯拉普拉斯空间中的极值点,加快了特征提取的速度,提取的SIFT特征对于图像平移、缩放、旋转具有不变性,并且对于仿射变换、视觉变化、光照变化有较强的稳定性和很好的匹配鲁棒性,所以被广泛应用于计算机视觉的图像匹配、图像检索和模式识别等方面[3,5]。虽然SIFT 算法具有上述的优点,但该算法首先要将彩色图像灰度化,仅利用图像的灰度信息和特征点的局部邻域信息,忽略了图像的颜色信息,导致不能识别图像内具有相似结构的特征点。

文章提出基于SIFT的多特征相似性度量算法,首先对彩色壁画图像提取SIFT特征点与特征向量,然后对每个特征点提取HSI彩色特征,最后按定义的相似性度量公式计算两个特征点之间的距离,确定二者是否匹配。

1 特征提取

1.1 SIFT特征提取

尺度空间极值点的检测采用DOG方法,将一个像素点与它相邻的26个点相比较,如果是最大值或最小值,就作为图像中的一个特征点。以特征点为中心,在16×16的邻域内,将采样点与特征点的相对方向通过高斯加权后,分别归入8个方向的梯度方向直方图,最后获得4×4×8的128维特征向量来描述一个SIFT特征点。

SIFT算法的两个关键步骤是关键点检测和关键点描述。在关键点检测阶段,大多是利用两种不同的方法,即尺度不变检测和致密采样。文章采用致密采样进行特征检测,理由如下。一方面,尺度不变检测器在描绘均匀信息时是低效的,而壁画图像中包含着这样的信息。另一方面,在特征匹配时,通过致密采样得到的关键点优于随机抽样和尺度不变的探测器[6]。

SIFT算法首先将彩色图像灰度化,提取的特征关注图像的梯度信息,忽视了图像的彩色信息。文章对彩色图像提取特征,实验发现图像的误匹配点中,存在着彩色信息不一致的问题。因此,文章对图像既提取SIFT特征,又提取颜色特征,对多特征融合设计相似性度量方案,可以减少误匹配率,提高匹配效果。

1.2 颜色特征提取

为了解决误匹配中存在的SIFT梯度信息一致,彩色信息不一致的问题,我们在对特征点提取SIFT特征后,再次提取其颜色特征。由于RGB颜色模型只考虑图像的亮度信息,而HSI颜色模型全面考虑图像的亮度和颜色信息,因而在开发基于彩色描述的图像处理算法中,HSI模型更为有用[7],文章提取HSI彩色特征。

HSI颜色模型中,H表示色调,指的是人的感官对不同颜色的感受,描述纯色的属性;S表示饱和度,描述的是颜色的纯度;I表示强度,描述的是颜色的明亮程度。

常用的最近邻方法原理是,对于基准图像中的每个特征点,在待匹配图像中寻找距离最近的特征点,然后形成一组匹配对。因为最近邻获得的匹配对中存在大量的误匹配,所以Lowe在论文[8]中对于基准图像中的每个特征点,在待匹配图像中寻找距离最近和次近的两个特征点,当这两个距离的比值小于预设的阈值时,才认为找到了一组正确的匹配对,这样消除了大量的误匹配,取得了不错的匹配效果。文章设阈值为thr,且0

3 实验结果及分析

为了观察算法性能,我们从互联网上寻找了两张有重叠部分的壁画图片进行了实验。图像如图1所示。采用Matlab7.7.0编程,运行在AMD A6-3400M CPU 1.4GHZ和4G内存的PC机上,Windows 7.0操作系统。

实验首先寻找图像的SIFT特征点,然后提取特征点的SIFT特征和HSI特征,再对图1a和图1b按公式(9)进行相似性度量,再分别用欧式距离和卡方距离作为相似性度量,并且thr分别选用0.5,0.6,0.7,0.8进行特征对提纯。结果表明,匹配过程在使用同样的阈值时,三种相似性度量方法中,所得到的匹配正确率相同,而匹配时间不同,按公式(9)计算的距离稍快一些。随着thr值的增大,所得匹配对数减少,当thr取值为0.6时,具有较好的匹配结果。图2为thr取值为0.6时的匹配结果。

另外,实验同时表明,对于图像分别提取SIFT特征和HSI特征,如果仅按SIFT特征或HSI特征计算相似性,所得到的匹配正确率都低于两个特征按公式(9)计算相似性的情况。

因此,对图像提取SIFT特征和HSI特征,按我们定义的相似性度量计算方法,确实提高了图像匹配的效率。

4 结束语

文章采用的算法对彩色壁画图像同时提取SIFT特征和HIS彩色特征,有效地去除了梯度信息一致而彩色信息不一致产生的误匹配。通过定义的相似性度量公式,在计算两个特征点之间是否匹配时,速度更快一些。由于SIFT 算法计算量大,算法复杂,提高图像匹配的实时性,将是下一步的研究工作。

参考文献

[1]ZHU Q,WU B,XU Z.Seed point selection method for triangle constrained image matching propagation[J].IEEE Geoscience and Remote Sensing Letters,2006,3(2):207-211.

[2]LOWE D G.Object recognition from local scale-invariant feature[C]// Proc.the Seventh IEEE International Conference on Computer Vision.Corfu,Greece: IEEE Press,1999:1150-1157.

[3]张书真,宋海龙,向晓燕,等.采用快速SIFT算法实现目标识别[J].计算机系统应用,2010,19(6):82-85.

[4]王瑞瑞,马建文,陈雪.多传感器影像配准中基于虚拟匹配窗口的SIFT算法[J].武汉大学学报(信息科学版),2011,36(2):163-166.

[5]钟金琴,檀结庆,李莹莹,等.基于二阶矩的SIFT特征匹配算法[J].计算机应用,2011,31(1):29-32.

[6]K.Mikolajczyk,C.Schmid. A performance evaluation of local descriptors [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(10):1615-1630.

[7]何川.高压输电线路视频监控技术研究[D].北京:北京交通大学,2012.

篇10

关键词:机器人视觉;摄像机自标定;三维重建;零空间投影;RQ分解

中图分类号:TP242.6+2文献标识码:A文章编号:1009-3044(2008)17-21529-04

三维形状重建是计算机视觉中的最重要任务之一[1-2]。从已标定的单视图或多视图重建目标三维形状已相对成熟[1-5],但是,从未标定的单视图或多视图重建三维形状仍是一个值得研究的课题。此时,必须在线完成摄像机自标定。摄像机自标定首先由Hartley[6]和Faurgeras[7]在1992年提出。从此它成为计算机视觉界的一个热门课题。线性自标定[8-12]因简单有效而成为流行技术。但它对视图个数和历经的三维运动往往有较多的限制,影响了其应用范围。另外,当模型形状先验已知时,如何有效地充分利用该先验信息提高自标定和三维重建的速度和精度,仍是一个有待回答的问题。本文基于零空间投影和RQ分解,开发从目标单视图或多视图同时完成摄像机自标定和目标三维重建的线性算法,该算法原则上对历经的三维运动没有限制,算法也较简捷。实验演示了噪声强度、点数和帧数对算法性能的影响。理论分析和实验数据表明,该算法具有快速高效、简单实用、抗噪能力较强的优点。

1 理论分析

1.1 成像模型

假设摄像机成像服从针孔成像的透视投影模型,则第i帧(i=1,2,...,q, q为帧数)的第j个(j=1,2,...,N,N为点数)三维点Xi,j在摄像机坐标系中的坐标Pi,j及相应的数字坐标Pi,j(d)与其二维像点的模拟齐次坐标mi,j=[xi,j yi,j l]T(上标T标记转置运算)及相应的数字齐次坐标mi,j(d)=[xi,j(d) yi,j(d) l]T服从透视投影公式

(1)

其中,深度Zi,j是Pi,j的第3分量,摄像机内参数矩阵

这儿,(xc,yc) 是图像主点,(fx,fy)是图像水平轴和垂直轴的尺度因子, s是畸变因子。实际上,该内参数矩阵完成以象素计的数字坐标系与以摄像机焦长f计的图像坐标系之间的转换,即

mi,j(d)=Kmi,j (3)

1.2 三维几何变换和单应性变换

假设从目标从模型到第i帧图像历经了三维运动(Ri,Ti) ,其中,Ri为三维旋转矩阵,Ti为三维平移矢量,则三维点Xi,j的模型位置Pj(0)与其第i帧位置Pi,j满足三维几何变换

1.7 讨论

显然,该算法有解且有唯一解的条件是:3(N-3)×N维矩阵Ai的秩等于N-1,考虑到中心化算子P1N是个正交投影算子,它具有降秩1的功能,因此条件变成3(N-4)≥N-1即点数N≥6。这意味着该线性算法至少要6个特征点。节2的实验表明,N<6时无唯一解和N≥6时有解且有唯一解。另外,点数的增多确实可改进算法性能。

经过比较,不难发现,新算法有五个鲜明的特点。

(1)现有算法往往有8点以上的要求,而新算法的需要点数已达到最小值6。因为5个内参数加上6个三维运动参数有11个自由度,而每个点仅能提供2个自由度。

(2)现有算法往往不能有效地利用先验模型信息,而新算法能有效地充分利用先验已知的模型形状阵信息。这对提高算法性能具有显著作用。

(3)现有算法往往在自标定之后才完成深度矢量估计,新算法却是在在自标定之前完成深度矢量估计。这有利于提高深度复原的精度,对重视深度复原的应用场合尤其重要。

(4)现有算法往往对历经的三维运动有限制,新算法无任何限制。

(5)现有算法往往只能用于多视图情况,不能用于单视图情况;而新算法既能用于多视图情况,也能用于单视图情况,只需令上述算法中的帧数q=1 即可并未单视图情况的线性算法。

2 实验

2.1 实验步骤

为了定量分析算法的统计性能,用计算机仿真数据进行了蒙特卡洛实验、每次实验对仿真生成的多视图特征点集组成的数据运行所开发的算法,并计算各种误差性能;然后,用100次实验的误差性能的平均值作为相应的误差性能的数学期望值。

算法输入数据的生成过程是:首先,用N个均匀分布于立方体{ (-2, 2), (-2, 2), (1, 2) }内三维数据集合组成三维点集,该点集经q个由三维旋转和三维平移构成的几何变换生成q帧三维点集,再经透视投影后得到多视图特征点集的模拟齐次坐标集合,它们用摄像机内参数阵变换后,舍入取整生成相应的多视图特征点集的数字齐次坐标集合。该集合就是算法的输入数据。

为考察算法抗噪能力,输入数据必须加入强度可控的噪声,考虑到数字坐标已整数化,不宜加噪,我们用每维均匀分布于[-Am, Am]且互相独立的二维噪声叠加到多视图特征点集的二维模拟坐标上,其中,强度Am可程控然后用摄像机内参数阵变换后,舍入取整生成相应的多视图特征点集的数字齐次坐标集合,其中,强度Am由运行程序控制,它从0.001逐步增加到0.032。多视图的图像尺寸是1024×1024。

算法精度用所有估计项目的以百分比计的相对误差衡量。例如,用||ΔK||/||K||的统计平均值总体度量自标定误差,其中, ΔK=K-K,K是设定的内参数阵,K是内参数阵K的估计,矩阵范数采用Frobenius范数,矢量范数采用欧几里得范数。其它各项误差类似地定义,但是,三维运动要在取帧平均后再取统计平均,建模要在取点平均后再取统计平均,形状重建要在取点平均和帧平均后再取统计平均。

2.2 单视图实验结果

表1示出了单视图情况下、当点数N=6时,噪声强度Am对算法性能的影响。可见,即使算法仅使用6点,仍能在所有加噪情况中,三维运动重建和三维形状重建的相对误差都小于5.93%, 而在中小强度(不超过0.0012)噪声情况时,相对误差都不大于1.50%以下。

表3示出了多视图情况下,当帧数q=6和点数N=24时,噪声强度Am对算法性能的影响。可以看出,在所有加噪情况中,摄像机内参数自标定的相对误差都不大于0.17%,三维重建相对误差都小于0.17%,而在中小强度(不超过0.0012)噪声情况时,自标定相对误差不大于0.06%,三维重建相对误差都不大于0.29%。

3 结束语和展望

通过对中心化模型形状阵的RQ分解得到其零空间的标准正交基,然后把中心化后的从模型形状阵到多视图数据阵的单应性变换方程投影到该零空间,建立了一个精确求解多帧深度矢量集合的方法,然后用中心化单应性变换方程求取多帧单应性矩阵的最小二乘最小范数估计,最后用RQ分解计算摄像机内参数阵和多帧三维旋转矩阵,并进而完成目标三维重建。这样,通过充分利用包含于先验已知的模型形状阵和后验提供的多帧数据阵中的所有信息,开发了一个能同时完成摄像机自标定和目标三维重建的线性算法。

该算法不同于已有线性算法的五个鲜明特点是:1)所需点数达到了可能的最小值6;2)能很有效地利用宝贵的先验模型信息;3)在自标定之前完成深度矢量估计;4)对历经的三维运动没有限制;5)既能用于多视图情况也能用于单视图情况。

可以预期,使用零空间投影技术也能推广应用于模型形状阵未知时的多视图自标定和三维重建。该算法正在研究开发中,将另行著文讨论。

参考文献:

[1] 马颂德,张正友.计算机视觉计算理论与算法基础[M].科学出版社,1998.

[2] 章毓晋.图像理解与计算机视觉[M].清华大学出版社,2000.

[3] Oliensis, J., A Multi-frame structure from motion algorithm under perspective projection[C].IEEE Workshop on Perception for Mobile Agents, 1998, pp. 49-577.

[4] Thomas, J. I. and Oliensis J., Dealing with noise in multiframe structure from motion[J], CVIU 76, 1999, pp. 109-124.

[5] Chiuso, A., Brockett, R. and Soatto S., Optimal structure from motion: local ambiguities and global estimates[J], IJCV 39(3), 2000, 195-228.

[6] Hartley, R., Estimation of relative camera positions for uncalibrated camera[C], In: Proc. European Conference on Computer Vision, NLCS 588, Springer-Verlag, 1992, 579~587

[7] Faurgeras, O. D., What can be seen in three dimensions with an uncalibrated stereo rig[C], In: Proc. European Conference on Computer Vision, NLCS 588, Springer-Verlag, 1992, 563~578

[8] 吴朝福,胡占义.摄象机自标定的理论与算法[J].计算机学报,2001, 24(11):1121~1135.

[9] 吴朝福,胡占义.线性确定无穷远平面的单应性矩阵和摄象机自标定[J].自动化学报,2003,28(4):488~496.

[10] Yang, Z. -G., Ren, L., SVD-based camera self-calibration and 3-D reconstruction from single-view[C],’ Proceedings of 2004 International Conference on Machine Learning and Cybernetics, Vol. 7 of 7, 4090-4095, Aug. 2004.

[11] Yang, Z. -G., Ren, L., A new algorithm for linearly reconstructing the infinite homography matrix and intrincic parameter matrix of a camera[C], 7th International Conference on Signal Processing Proceedings, Vol. II of III, 1247-1251, Aug. 2004.