卷积神经网络的缺陷范文
时间:2024-04-09 11:35:15
导语:如何才能写好一篇卷积神经网络的缺陷,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。
篇1
1概述
深度学习(Deep Learning)是人工智能、图像建模、模式识别、神经网络、最优化理论和信号处理等领域的交叉学科,主要构建和模拟人脑进行分析学习,它属于机器学习的新兴领域。
2大数据与深度学习
目前,光学检测、互联网、用户数据、互联网、金融公司等许多领域都出现了海量数据,采用BP算法对于训练神经网络出现了梯度越来越稀疏、收敛到局部最小值只能用有标签的数据来训练等缺点。Hinton于2006年提出了深度学习的概念,Lecun等人提出了卷积神经网络,卷积神经网络利用空间关系减少参数数目以提高训练性能。
CPU和GPU计算能力大幅提升,为深度学习提供了硬件平台和技术手段,在海量大数据处理技术上解决了早期神经网络训练不足出现的过拟合、泛化能力差等问题。
大数据和深度学习必将互相支撑,推动科技发展。
3深度学习模型
深度学习模型实际上是一个包含多个隐藏层的神经网络,目前主要有卷积神经网络,深深度置信神经网络,循环神经网络。
1)卷积神经网络
在机器学习领域,卷积神经网络属于前馈神经网络的一种,神经元不再是全连接的模式,而是应用了局部感受区域的策略。然而传统的神经网络使用神经元间全连接的网络结构来处理图像任务,因此,出现了很多缺陷,导致模型⑹急剧增加,及其容易过拟合。
在卷积神经网络中,网络中的神经元只与前一层的部分神经元连接,利用图像数据的空间结构,邻近像素间具有更强的相关性,单个神经元仅对局部信息进行响应,相邻神经元感受区域存在重叠,因此,综合所有神经元可以得到全局信息的感知。
另外,一个卷积层中的所有神经元均由同一个卷积核对不同区域数据响应而得到,即共享同一个卷积核,使得卷积层训练参数的数量急剧减少,提高了网络的泛化能力。
一般在卷积层后面会进行降采样操作,对卷积层提取的特征进行聚合统计。降采样区域一般不存在重叠现象。降采样简化了卷积层的输出信息,进一步减少了训练参数的数量,增强了网络的泛化能力。
卷积神经网络实现了局部特征的自动提取,使得特征提取与模式分类同步进行,适用于处理高分辨率的图像数据。目前,卷积神经网络在图像分类、自然语言处理等领域得到广泛应用。
2)深度置信网络
深度置信网络是一种生成模型,网络中有若干隐藏层,同一隐藏层内的神经元没有连接,隐藏层间的神经元全连接。神经网络经过“反向运行”得到输入数据。
深度置信网络可以用做生成模型,通过前期的逐层无监督学习,神经网络可以较好的对输入数据进行描述,然后把训练好的神经网络看作深度神经网络,最后得到分类任务的深度神经网络。
深度置信网络可以用于图像识别、图像生成等领域,深度置信网络可以进行无监督或半监督的学习,利用无标记数据进行预训练,提高神经网络性能。但近几年由于卷积神经网络的飞速发展,深度置信网络已经很少被提及。
3)循环神经网络
循环神经网络是一种专门用于处理时序数据的神经网络,它与典型的前馈型神经网络最大区别在于网络中存在环形结构,隐藏层内部的神经元是互相连接的,可以存储网络的内部状态,其中包含序列输入的历史信息,实现了对时序动态行为的描述。这里的时序并非仅仅指代时间概念上的顺序,也可以理解为序列化数据间的相对位置。如语音中的发音顺序,某个英语单词的拼写顺序等。序列化输入的任务都可以用循环神经网络来处理。如语音、视频、文本等。对于序列化数据,每次处理时输入为序列中的一个元素,比如单个字符、单词、音节,期望输出为该输入在序列数据中的后续元素。循环神经网络可以处理任意长度的序列化数据。
循环神经网络可以用于机器翻译、连写字识别、语音识别等。循环神经网络和卷积网络结合,将卷积神经网络用于检测并识别图像中的物体,循环神经网络用于识别出物体的名称为输入,生成合理的语句,从而实现对图像内容的描述。
4深度学习应用
1)语音识别
语音识别技术主要包括特征提取技术、模式匹配准则及模型训练技术三个方面。其应用领域主要有语音输入系统、语音控制系统和智能对话查询系统,语音识别极大地推动了人工智能的快速发展。1952年Davis等人研究了世界上第一个能识别10个英文数字发音的实验系统。大规模的语音识别研究是在20世纪70年代以后,在小词汇量、孤立词的识别方面取得了实质性的进展。2012年,微软研究院使用深度神经网络应用在语音识别上将识别错误率降低了20%,取得了突破性的进展。2015年11月17日,浪潮集团联合全球可编程芯片巨头Altera,以及中国最大的智能语音技术提供商科大讯飞,共同了一套DNN语音识别方案。
2)图像分析
图像是深度学习最早尝试的应用领域。1989年,LeCun和他的同事们就发表了卷积神经网络的工作。2012年10月,Hinton和他的两个学生用更深的CNN在ImageNet挑战上获得了第一名,使图像识别向前跃进了一大步。
自2012年以来,深度学习应用于图像识别使得准确率大大上升,避免了消耗人工特征抽取的时间,极大地提升了效率,目前逐渐成为主流的图像识别与检测方法。
篇2
关键词:物联网;人脸识别;视频网络
1物联网及人脸识别视频网络技术的发展
1.1物联网视频网络技术的发展状况
最近几年,随着物联网技术、图像处理技术以及数据传输技术的快速发展,视频网络技术应运而生并取得了长足的发展。当前,视频网络系统作为一种模拟数字控制系统,其具有非常成熟和稳定的性能,已广泛应用于实际工程中。虽然数字系统发展迅速,但尚未完全形成相应的体系,因此,混合数字和模拟应用程序逐渐迁移到数字系统将成为未来发展的主要趋势之一。当前,国内外市场上主流的产品主要有两种,即模拟视频数字网络系统、数字视频网络系统。前者技术先进,性能稳定,被广泛应用于实际工程应用中,特别是大中型视频网络项目。后者作为一种新兴技术,是一种通过以计算机技术和视频压缩为核心的新型视频网络系统,其有效的避免了模拟系统所存在的一些弊端,但未来仍需要进行不断的改进和发展。外部集成、视频数字化、视频网络连接、系统集成是未来视频网络系统发展的重要研究方向。数字化是网络的前提,而网络是系统集成的基础。因此,视频网络领域的两个最大发展特征是:数字化和网络化。
1.2人脸识别视频网络的发展状况
人脸识别技术作为模式识别领域中的一项前沿课题,截止目前,已有三十多年的研究历史。人脸识别目前是模式识别和人工智能的研究热点,目前主要采用AdaBoost分类器进行人脸区域的检测,人脸识别研究的内容大致分为以下内容:(1)人脸检测:其指的是在不同场景下的人脸检测及其位置。人脸检测是通过在整个输入的图像中找到一个合适的人脸区域为目的,并将该图像分为人脸区域和非人脸区域两部分。在实际的某些理想情况下,由于可以人为手动控制拍摄环境,因此,可以轻松确定人脸的位置;但是在大多数情况下,由于场景更加复杂,因此,人脸的位置是未知的。因而在实际的人脸识别视频网络过程中,首先必须确定识别场景中是否有人脸的存在,如果存在人脸,再进一步确定图像中人脸的具体区域。(2)人脸识别:将系统检测到的人脸特征信息与系统数据库中存在的已知人脸信息进行充分识别与匹配,以此获取相关信息,该过程的本质是选择正确的人脸模型和匹配策略。在实际生活的应用当中,由于成人的面部模型处于不断变化当中,且容易受到时间、光线、相机角度等方面的差异,因而很难用一张图纸表达同一个人的面部图像,这使得提取特征变得困难,由于大量的原始灰度图像数据,神经元的数量通常很大并且训练时间很长。除此之外,完全依赖于神经网络的识别方法具有当前计算机系统固有的局限性,尽管神经网络具有很强的感应能力,但是随着样本数量的增加,其性能可能会大大降低。简而言之,由于年龄,表情,倾斜度和其他表征对象的因素的多样性,很难进行人脸识别,因此,识别该对象的效果仍远未达到现实。目前,普遍采用AdaBoost算法来对出现在视频中的人脸区域进行检测,以此达到实时获取人脸图像的目的,AdaBoost算法的原理是通过训练得到多个不同的弱分类器并将这些弱分类器通过叠加、级联得到强分类器,AdaBoost算法流程如图1所示。(3)表情分析:即对面部表情信息(幸福,悲伤,恐惧,惊奇等)进行分析和分类。当前,由于问题的复杂性,正在对面部表情的分析进行研究,它仍处于起步阶段。心理学表明,至少有六种与不同面部表情相关的情绪:幸福,悲伤,惊奇,恐惧,愤怒和恶心。即与没有表情的面部特征相比,这六个表情的面部特征具有相对独特的运动规则。(4)生理分类:分析已知面孔的生理特征,并获得相关信息,例如种族、年龄、性别和职业。显然,此过程需要大量知识,通常非常困难和复杂。
2物联网卷积神经网络人脸识别方法分析
卷积神经网络是专门设计用于识别二维形状的多层感知器。通常,可以使用梯度下降和反向传播算法来训练网络。从结构上讲,卷积神经网络包含三个概念:局部感受野、权重共享和下采样,使其在平移,缩放,倾斜或其他形式的变形中相当稳定。当前,卷积神经网络被广泛用于模式识别,图像处理和其他领域。卷积神经网络(CNN)用于提取目标人脸图像的特征。训练网络后,将先前测试的模型用作面部分类器,微调可以缩短网络模型的训练时间。卷积神经网络的基本体系结构是输入层,卷积层(conv),归约层(字符串),完全连接层和输出层(分类器)。通常有多个卷积层+速记层,此程序实现的CNN模型是LeNet5,并且有两个“卷积+下采样层”LeNetConvPoolLayer。完全连接的层等效于MLP(多层感知器)中的HiddenLayer。输出层是一个分类器,通常使用softmax回归(有些人称为直接逻辑回归,它实际上是多类逻辑回归)。LogisticRegression也直接提供了该软件。人脸图像在视频监控中实时发送到计算机,并且面部区域部分由AdaBoost算法确定。在预处理之后,将脸部图像注入到新训练的预训练模型中进行识别。该过程如图2所示。
3物联网人脸识别视频网络多目标算法优化
多目标优化问题的实质是协调并在各个子目标之间达成折衷,以便使不同的子目标功能尽可能地最佳。工程优化的大多数实际问题都是多用途优化问题,目标通常相互冲突。长期以来,多目标优化一直受到人们的广泛关注,现在已经开发出更多的方法来解决多目标优化问题。如果多标准优化没有最差的解决方案,那么通常会有无限多的解决方案,这并不是最差的解决方案。解决面部强调时,人们不能直接应用许多次等解决方案。作为最后的决定,我们只能选择质量不是最低,最能满足我们要求的解决方案。找到最终解决方案的方法主要有三种。因此,只有通过找到大量有缺陷的解决方案以形成有缺陷的解决方案的子集,然后根据我们的意图找到最终的解决方案。基于此,多目标算法是通过将多准则问题转变为一个关键问题,这种方法也可以视为辅助手段。这种方法的棘手部分是如何获取实际体重信息,至于面部特征,我们将建议一种基于权重的多功能优化算法,该算法可以更好地反映脸部的特征。我们将人脸的每个特征都视为多个目标,并且在提取面部特征时,面部特征会受到外界的强烈影响,例如位置,光照条件和强度的变化,并且所有部位和每个部位都会受到影响。因此,我们可以使用加权方法从每个受影响的分数中提取不同的权重。通过开展试验测试,结果表明,在有多目标优化的算法的作用下,比在没有多目标优化的算法作用下人脸识别效果有所提高,大约提高了5—10个百分点。
4结论
鉴于多准则优化算法在科学研究的各个领域中的广泛使用,本文提出了一种多准则优化算法来对复杂的多准则人脸图像上的各种面部特征进行特征提取的多准则优化,以达到提高人脸识别率的目标、提高整个人脸识别视频网络系统的性能。
参考文献
[1]江斌,桂冠.基于物联网的人脸识别视频网络的优化方法研究[C]//物联网与无线通信-2018年全国物联网技术与应用大会论文集.2018.
[2]余雷.基于物联网的远程视频监控优化方法研究[J].科技通报,2014(6).
[3]张勇.远程视频监控系统的传输技术的实现[D].电子科技大学,2011(9)
篇3
关键词:视觉注意;自顶向下;显著性;对象信息;卷积神经网
中图分类号:TP391.41
文献标志码:A
文章编号:1001-9081(2016)11-3217-05
0 引言
视觉注意机制的研究是探索人眼视觉感知的重要一环。在过去几十年中,如何用计算模型模拟人眼视觉注意过程一直是核心问题。尽管取得了很大的进步,但是快速准确地在自然场景中预测人眼视觉注意区域仍然具有很高的挑战性。显著性是视觉注意的一项重要研究内容,它反映了区域受关注的程度。本文的研究着眼于显著性计算模型,更多模型对比和模型分类可以参考Borji等[1]的文章。视觉注意存在两种机制:自底向上(Bottom-up)和自顶向下(Top-down)。过去的研究中,大多数的计算模型是基于自底向上的信息,即直接从图像像素获取特征。
自底向上显著性计算模型开创性工作源自于文献[2]的Itti模型,该模型是很多其他模型的基础和对照基准,它通过整合多种低层次特征,如颜色、亮度、方向等,给出一个显著度的概率分布图。Harel等[3]在Itti模型的基础上引入图算法,通过计算节点间特征值相似性和空间位置距离进行差异性度量获取显著图。近年来随着深度学习技术在目标识别领域的成功应用[4],研究者们对特征学习产生了更多的兴趣。Borji等[5]通过稀疏编码方法获取特征,使用图像块的稀疏表示结合局部和全局统计特性计算图像块的稀有性(rarity),稀有性反映了当前图像块中心位置的显著性。Vig等[6]通过训练多个神经网络获取层次特征,然后自动优化特征组合。特征提取的过程可以看作是一种隐式空间映射,在映射空间中使用简单的线性模型进行显著或非显著的分类。以上学习方法获得的特征都是一些低层次特征,对图像中的边缘和特定纹理结构敏感。此外,部分研究人员希望从数学统计和信号处理的角度来度量显著性。Bruce等[7]根据最大化信息采样的原则构建显著性模型。Li等[8]总结了多种基于频域的视觉注意研究工作,提出了一种基于超复数傅里叶变换(Hypercomplex Fourier Transform)的视觉注意模型,并展示了其他多种基于频域的模型在某种程度上都是此模型的特例。
以上模型均为数据驱动的显著性模型,模拟人眼视觉注意过程中自底向上的机制。由于人眼视觉注意过程中不可避免地受到知识、任务、经验、情感等因素的影响,因而整合自底向上和自顶向下信息的视觉注意研究受到更多的关注。现有模型整合的自顶向下信息可以分为三类:任务需求、场景上下文和对象特征。
Borji等[9]提出了一种构建任务驱动的视觉注意模型的联合贝叶斯方法。Zhang等[10]提出了一种使用贝叶斯框架整合自底向上和自顶向下显著性信息的方法。Siagian等[11]利用多种低层次特征对场景主旨进行建模,使用场景主旨引导视觉注意的转移。考虑到任务需求和场景上下文建模的复杂性,研究人员将对象特征视为一种高层次的知识表示形式引入视觉注意模型中。Judd等[12]和Zhao等[13]通过将低层次特征和对象特征整合在一个学习框架下来获得特征整合过程中每张特征图的叠加权重,但是模型使用的对象特征只有人脸、行人、车辆等有限的几种。Borji等[14]遵循了同样的方法,但是在整合过程中添加了更多特征并且结合了其他显著性模型的结果,最后用回归、支撑向量机(Support Vector Machine, SVM)、 AdaBoost等多种机器学习算法结合眼动跟踪数据进行训练。实验结果表明对象特征引入较大地提高了模型性能。Xu等[15]将特征划分为像素级、对象级和语义级三个层次,并重点探索对象信息和语义属性对视觉注意的作用;然而,模型中的对象级和语义级特征是手工标定的,因而不是一种完全意义上的计算模型。
总的来看,虽然部分模型已经使用对象特征作为自顶向下的引导信息,但是在对象特征的获取和整合上仍有很大的局限性。首先,对不包含特定对象的场景适应性较差;其次,对象特征描述困难,通常是通过特定目标检测方法获取对象特征,计算效率低下;此外,对象特征的简单整合方式不符合人眼的视觉感知机制。本文提出了一种结合深度学习获取对象特征的视觉注意计算模型,重点研究了对象级特征的获取和整合方法。算法结构如1所示,其中像素级突出图获取采用现有视觉注意模型的方法,对象级突出图获取采用本文提出的基于卷积神经网(Convolutional Neural Network, CNN)的特征学习和基于线性回归的特征整合方法。实验结果表明,对象级特征的引入可以明显提高显著性预测精度,预测结果更符合人类视觉注意效果。
1 对象信息获取
1.1 对象特征
大量实验证据表明对象特征引导视觉注意的转移。视觉注意中引入对象特征是为了获得图像中对象位置等信息,目的与计算机视觉中的目标检测类似。因而,已有的视觉注意计算模型的对象特征通常是通过特定目标检测方法获得。其中,Viola&Jones人脸检测和Felzenszwalb车辆行人检测是最常用的方法。文献[12-14]均使用此类方法引入对象特征。由于这一类特征针对特定对象样本进行设计和训练,因而推广能力不强。
li=fixations(obji)area(obji)(3)
其中: fixations()表示落入当前对象区域的正样本的数目;area()表示对象区域面积。li衡量当前对象单位面积受关注的程度,对象单位面积受关注程度越高,其在对象整合过程中的权重应越高,因而li与叠加权重成正比。
式(4)通过一个线性回归模型对已有样本数据进行训练,获得对象整合叠加权重W:
L=WF(4)
其中:F={F1,F2,…,FN}为训练样本数据集合;L={l1,l2,…,lN}为训练样本标签集合。
测试时根据式(5)~(6)获得对象级突出图:
3 显著图生成
视觉注意是自底向上和自顶向下两种机制作用的结果。完全使用自顶向下的对象特征进行显著区域预测有一定缺陷,主要表现在以下几个方面:首先,知识是对训练样本数据的抽象表示,由于神经网络的规模和训练样本中对象种类的限制,场景中部分对象对应的特征没有被抽象在网络结构中;其次,部分不具有明确语义的区域被错误地认为是对象,对视觉注意形成错误的引导;另外,人眼视觉注意转移的生理学机制并不清楚,兴趣区可能落在不具有对象特征区域中。因此,使用像素级特征给出低层次显著性信息是必要的。
视觉注意模型中常用的像素级特征有颜色、亮度、方向等[2-3,12]。本文直接使用GBVS(Graph-Based Visual Saliency)算法[4]整合多种像素级特征获取像素级突出图Spixel。式(7)给出了整合的方法:
其中:S(i, j)为最终给出的视觉注意显著图;N()为归一化操作;λ控制对象级突出图与像素级突出图的相对权重,通过实验分析可知λ=0.4时效果较好。当图像中不存在显著物体或无法获得高置信度的对象信息时,图像任意位置Sobj(i, j)=0,此时完全由像素级特征驱动的视觉注意引导。
4 实验结果及分析
本次实验是以Visual Studio 2012为实验平台,选取OSIE和MIT数据集作为实验数据。OSIE数据集包含700张含有一个或多个明显语义对象的图片以及15名受试者的眼动跟踪数据,此外该数据集还提供了语义对象统计及人工标注的精确对象区域。MIT数据集包含1003张自然场景图片以及15名受试者的眼动跟踪数据。这两个数据集是当前视觉注意研究领域中较大的数据集。为了验证本文方法的准确率,将本文算法与GBVS[4]、 Itti[2]、 Judd[3]、 AIM[10]、LG[8]等视觉注意方法进行对比。
对比实验中使用的评价指标为ROC(Receiver Operating Characteristic)曲线,实现方法与文献[12,15]相同。图6~8为实验对比结果,显著区域百分比是通过对归一化显著图作阈值处理获得,真正率(True Positive Rate)反映当前落入显著区域的样本占所有样本的比例。通过变化显著区域百分比获得ROC曲线。为了更直观比较算法效果,实验结果图中标注了每种算法的AUC(Area Under Curve)值,AUC值通过计算ROC曲线下的面积获得。AUC值越大表示该方法给出的显著性预测结果越准确。
图6为利用对象级突出图作为显著图在OSIE数据集上的实验结果。相对于RCNN算法, fasterRCNN算法使用了更深层次的网络结构和更多对象类别的训练样本,具有较高的对象位置预测准确率和对象检出率。实验分析可以看出,使用fasterRCNN算法生成对象级突出图可以更好进行显著性预测。同时,人脸特征(FACE)的引入进一步提升了预测准确性,从一个侧面说明了对象性信息对视觉注意的转移具有引导作用。
图7是多种视觉注意算法在OSIE数据集上的ROC曲线,可以看出本文方法实验效果明显好于其他算法。仅次于本文算法的是GBVS和Judd,Itti的准确率较差。图中对象级特征曲线为使用fasterRCNN结合人脸特征生成对象级突出图获得,由于该方法完全使用自顶向下的对象特征,显著性预测准确率明显弱于其他方法,因而证明了引入像素级特征必要性。图8为MIT数据集上的实验结果,本文方法和Judd算法为最好的两种方法,实验结果相差不大。AIM和LG方法效果较差。本文方法和Judd方法均使用了对象特征,可以看出整合了对象特征的方法相对于完全自底向上模型有明显优势。
图9中给出了多种算法显著图的直观对比。与其他方法强调对象边缘不同,本文结合了对象信息的方法可以有效突出图像中的完整对象区域。
5 结语
本文提出一种结合对象信息的视觉注意方法。与传统的视觉注意整合对象方法相比,该方法利用卷积神经网学到的对象特征,获取图像中对象位置等信息;然后通过一个线性回归模型将同一幅图像的多个对象加权整合,获得对象级突出图;最后,根据视觉注意的层次整合机制,将低层次特征和对象特征进行融合形成最终的显著图。本文方法在不同数据集上的准确率要高于现有模型。针对包含明显对象的图像,本文方法克服了部分现有模型由于边缘强化效果导致的显著区域预测不准的问题。本文方法仍然存在一定局限性,未来的工作将尝试非线性对象整合以及增大训练样本数量和网络规模以获取更多种对象特征。
参考文献:
篇4
说ISSCC是全球最重要的集成电路会议,没有之一,是因为集成电路领域重大的发明,大都选择首先在ISSCC上。比如说,全球首个TTL(晶体管―晶体管逻辑)电路、首个1Kb DRAM(动态随机存储器)、首个8位微处理器、首个32位微处理器、首个1Mb DRAM、首个单片GSM接受器、首个GHz处理器、首个多核处理器等。
摩尔定律倒计时
尽管有关摩尔定律失灵的话题在产业界是个经久不衰的话题,但因为半导体发展趋势最为权威的ITRS,已经决定今年放弃以前以半导体制造工艺为主线的方法编制半导体发展蓝图,从而让人们感到紧迫感的临近。
去年时值摩尔定律发表50周年。ISSCC特意设立了小型论坛。英特尔在半导体工艺领域的大牛、英特尔高级院士马博,以及台积电、赛灵思、高通等嘉宾应邀讨论“10nm之下摩尔定律的挑战:技术、设计与经济成本”这一主题。与会嘉宾认为,摩尔定律在未来五六年内将会遇到严峻的挑战。
作为全球学术象牙塔最顶尖的学术刊物,《自然》杂志只用了半个月的时间就成了全球的“网红”。从1月28日报道谷歌人工智能AlphaG在围棋人机大战中击败欧洲冠军樊麾,接着是人类首次证实引力波的存在。到了2月9日,《自然》又以ITRS今年采用新的方法编制半导体发展蓝图为由头,公开“唱衰”摩尔定律。该文引用新路线图编制委员会主席陈安(An Chen音译)的话说,当尺寸缩小因为量子效应而难以为继时会发生什么事情,接下来又该怎么办?
显然,陈安还是太乐观了。理论上,当半导体工艺提高到1nm左右时,量子效应确切地说是隧道效应将会显著起来。笔者认为,在半导体工艺远未达到1nm时,就会因为工艺缺陷而失灵。我们知道,铜原子的直径约为0.29nm。英特尔目前承诺的是7nm工艺,相当于23个铜原子的排列宽度。再往下走,当工艺的偏差以1个原子计量时,由于工艺或者半导体衬底材料的纯度所限,缺陷难以避免。在长期高温下,缺陷不断扩散,最终将导致芯片功能失效。
CPU:核数增长放缓、主频提速
撰写数字架构与系统部分的是来自AMD的数字架构与系统分委员会主席史蒂芬・科希策(Stephen Kosonocky)。
他认为,得益于半导体制造技术发展带来的集成度的提高,越来越复杂的系统得以放在单一芯片上,这在成本、功耗和计算能力上带来一系列的好处。这些趋势将为整个计算家族的所有领域带来机会,这包括从用于极低功耗遥测传感应用的SoC(片上系统)、低功耗移动SoC,直到高端的主机和服务器系统。
应该指出的是,史蒂芬・科希策更多地是从芯片角度讨论SoC。如果从系统的层面上看,他疏漏了SoC可以显著提高系统可靠性和降低系统体积这两大好处。因为SoC可以有效地降低系统内芯片的数量,从而显著减少了芯片之间机械连接点,而体积的缩小对于移动应用特别是方兴未艾的物联网应用,是至关重要的。
史蒂芬・科希策表示,得益于并行计算和定制加速器的应用,计算机的性能正在以节能的方式不断提高。这意味着,与传统串行计算相比,在提供更强计算机性能以满足日益增长的用户需求的同时,允许降低处理器的时钟周期。
笔者以为,ISSCC提供的有关处理器内核数和主频的发展统计曲线,2016年的发展趋势似乎并不完全支持史蒂芬・科希策的观点。在处理器平均内核数上,从2001年到2010年,处理器的核数增长迅速,然而从2010年开始,处理器平均核数的增加显著趋缓,到2014年之后,核数平均曲线已经呈水平状。在处理器平均主频上,从1993年到2003年的10年间,主频提升非常快,其中1994年突破100MHz,2001年突破1GHz。但从2005年至2011年平均主频曲线不升反降,直到2012年开始平均主频曲线又开始了新一轮的增长,其增长斜率与上述10年的增长斜率几乎相同。
如果把处理器平均核数曲线与平均主频曲线叠加在一起,就不难看出,主频始自1993年的高速增长,到了2003年撞到了“热障”这堵墙。这促成了多核处理器的发展。而伴随着新一代半导体工艺技术FinFET(鳍式场效应晶体管)在2011年投入商用,因为Fin在制程工艺和低功耗上的优势,主频的增长又取代内核增长,成为提升处理器性能的主因。
需要注意的是,ISSCC仅提供了2016年的处理器平均主频和核数发展趋势,任何要借助于处理器主频增长的平均曲线外延以求未来发展趋势的想法,都要慎重。这是因为摩尔定律的周期会逐渐拉长。更重要的是,SoC已成集成电路大势所趋,FPGA(现场可编程门阵列)已经被集成到处理器芯片上,这意味着原本对计算机系统提升显著的基于FPGA的加速器,得以与处理器内核集成在一个管芯(Die)上,鉴于FPGA可以针对应用实时优化,所以,不远的未来将取代主频,成为处理器性能提升的主力。(相关内容详见本报2015年11月 2日封面报道《软件开始定义处理器》)。应该说,2015年英特尔收购Altera公司,是处理器性能提高新曲线的契机。而处理器核数的变化,应该保持现有的趋势。
节能成为亮点
节能无疑是今年处理器领域亮点。史蒂芬・科希策认为,韩国科学研究院(KAIST)展示了可用于不同领域的深度学习处理器系列,比如说为头戴设备/增强现实(AR/HMD)用户的自然界面和用户体验(UI/UX)、汽车驾驶的助手、微型机器人的自主导航等。在这类处理器中,低功耗是不可或缺的。如低功耗的自然界面和用户体验处理器,采用65nm CMOS工艺,它比市场上最新的头戴设备处理器节能效率高出56.5%,而且比市场上最好的模式识别处理器的识别率高出约2%。
篇5
【关键词】光学遥感观测技术;IDI保险;建筑高度;建筑阴影
1引言
建筑工程质量潜在缺陷保险(InherentDefectsInsurance,以下简称IDI保险)是工程质量类保险的一种,是承包建筑工程在竣工后的保险期限内,针对因勘察设计缺陷、施工缺陷或材料缺陷等竣工时尚未发现的潜在缺陷造成的建筑结构、防水工程或其他约定项目出现影响安全或使用的物质损失保险。我国于2005年引入IDI保险,先后在北京、上海等城市开展试点运行。目前,IDI保险在国内处于推广期,主要应用于住宅项目。根据各试点城市制定的IDI保险实施细则,建筑结构安全是IDI保险中风险最大的一项,具体包括建筑整体或局部倒塌、地基不均匀沉降等[1]。因此,建筑物安全隐患排查、研究建筑基础和主体结构损坏的现象和机理,并实现快速准确的风险预测是IDI保险风险管理的主要任务。当前,IDI保险关于建筑物的监测和风险管理,主要依靠保险公司工作人员和第三方监测机构。随着IDI保险的推广以及投保项目数量和类型的增加,人工的监测效率会大大降低[2]。所以需要一种技术手段,能够对目标区内所有建筑物进行全覆盖、长时间、连续和高精度的形变监测与风险分析,协助保险公司进行风险管理[3]。光学遥感观测技术是一种监测范围广、成本低、效率高,可以长期定点监测的遥感观测手段[4]。一方面,光学遥感观测技术在建筑物识别、建筑物高度推算等方面都达到了较高的计算精度,可以对建筑物的主体结构进行大范围、周期性的监测;另一方面,对比多时相遥感数据,可以掌握建筑的倾斜和沉降情况。光学遥感观测技术在这两方面的研究成果均可应用于IDI保险行业的风险评估,为IDI保险行业建立完善的建筑物风险评估体系提供支持。
2光学遥感观测技术在建筑高度计算方面应用的研究概况
光学遥感观测技术是遥感技术的一种,利用可见光、近红外和短波红外传感器对地物进行特定电磁谱段的成像观测,获取和分析被观测对象的光学特征信息。近年来,光学成像、电子学与空间技术的飞速发展,高空间、高光谱和高时间分辨率遥感技术不断取得突破,光学遥感观测技术已成为目前对地观测和空间信息观测领域中应用最为广泛的技术手段[5]。在光学遥感观测技术中,获取建筑物高度的主要方法为阴影侧高法,该方法根据遥感图像中建筑阴影长度推算建筑高度,然后进一步分析建筑变化。
2.1阴影测高法原理介绍
阴影与建筑物高度关系如图1所示。其中,H为建筑物高度;L为阴影长度;α、β分别为卫星和太阳的高度角;δ为太阳和卫星方位角的交角。建筑物高度计算方法为:当太阳和卫星在建筑物两侧时,建筑物高度H的计算方法可简化为[6]:阴影测高法首先在遥感图像中识别和提取目标建筑的阴影,然后根据阴影长度、卫星方位角、太阳高度角计算建筑高度。该方法只需要单张高分辨率遥感影像就可建立建筑物与阴影的成像集合模型。常用的阴影侧高法主要有分类法、边缘检测法、阈值法[7]。
2.2分类法
分类法首先对遥感图像进行分割,然后使用同质像素组成大小不同的对象,最后根据对象的形状、大小、纹理、空间关系等特征提取建筑物及其阴影。如田峰等[8]提出利用多尺度分割将遥感图像分割成若干对象,结合光谱、形状、形态学阴影指数等特征面向对象分类,相对准确提取出建筑物的阴影并计算阴影的长度,进行城市建筑物高度估计。结果显示,90%的估计结果绝对误差小于1m。分类法是当前应用最广泛的利用阴影计算建筑物高度的方法。该方法可以有效对遥感图像进行分割,准确地提取建筑物和建筑阴影,具有较高的计算准确度。近年来,随着深度学习算法在图像分割领域的快速发展,利用卷积神经网络模型对遥感图像进行特征提取、语义分割同样取得了较好的效果。如徐昭洪等[9]提出利用改进的U-net模型对建筑物区域进行像素级分割,获取其轮廓和尺寸信息,实验结果表明改进的U-net模型对遥感图像中建筑物的分割提取具有更高的精度,且对建筑密集区的小间隔建筑物的区分能力更强。
2.3边缘检测法
边缘检测方法通过检测遥感图像中不同区域的边界灰度变化实现区域分割。如张祚等[10]提出基于建筑阴影形成的原理,提出综合利用边缘密度和HSV(hue-saturation-value,色调-饱和度-明度模型)颜色模型识别GoogleEarth二维影像中的高层建筑阴影,利用在线计算太阳高度角的工具,快速完成建筑高度和阴影长度的估算。龙恩等[11]提出基于同名特征的思想,实现平顶直边型建筑高度提取。在对同名直边检测与精确定位过程中,将其转化为阴影边界检测,主要采用基于边缘的图像分割和专家知识相结合的建筑物阴影提取技术。边缘检测方法可以保留图像重要的结构信息,适合遮蔽少、房屋形体简单且较为独立的情况,当影像空间分辨率不够高、房屋类型多样,或者楼房间相互遮挡时,会降低建筑物提取的精度,无法保证高精度的建筑物提取结果[12]
2.4阈值法
阈值分割是一种简单有效的基于像素的图像分割技术,该方法根据每个像素点的特征值和阈值的大小关系,将像素点划分为不同类别[13]。如XinHuang等[14,15]提出的形态学建筑指数(MBI)和形态学阴影指数(MSI)就是阈值分割方法中常用的特征依据。首先利用MBI和MSI构建特征图像,然后根据设定阈值将图像划分为建筑、阴影和其他地物,最后利用其他方法对目标区域进行细化处理。阈值法主要优点在于实现简单、运算效率高。但遥感图像颜色复杂,包含图像元素较多,要达到较高的图像分割精度,需要在设计阈值计算方法时,结合图像本身的颜色特征以及空间特征。
3其他应用场景
随着IDI保险行业的发展与推广,其承保项目会从住宅项目逐渐扩展到包括市政项目在内的各类工程,例如,高速公路建造工程、地铁建设工程、旅游区建设、桥梁、水坝等。光学遥感观测技术凭借其长期大面积捕获影像信息的优势可以在多个方面提供数据和技术支持。例如,高速公路建造工程中,选址期间可结合多期历史遥感影像数据分析选址沿线的地址环境,以及发生自然灾害的可能性。同时,还可以对工程进度进行监测。地铁建设项目中,利用光学遥感观测技术可以对沿线的地面沉降进行监测分析。旅游区建设中,可以利用该技术对地质景观元素特征进行解译以及进行地质景观特征值的三维量测与统计。
- 上一篇:化学镀锡工艺流程
- 下一篇:生物医学工程行业报告