数据监测范文
时间:2023-03-21 07:49:06
导语:如何才能写好一篇数据监测,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。
篇1
关键词:ADO;数据格式;SPLIT函数
中图分类号:D922.3 文献标识码: A
1 引言
沉降监测中,对一般性的高层建(构)筑物,采用二等水准测量的观测方法就能满足要求,仪器多采用精密的电子水准仪,本文以天宝DINI03为例,全面阐述一下其数据的导入和处理过程。
2 数据导入的设计
本程序是利用VB语言读取电子水准仪的输出文件,然后利用Microsoft ActivX Data Object 2.6 Library ADO对象库的引用,把数据导入到access数据库中。例如,天宝DINI03电子水准仪输出的数据如1-1图,其第一行是文件名,第二行是开始观测行,因为是第一站(奇数站)所以用后、前、前、后方式观测,第三行是水准起点,第四行到第七行是前、后视高,前、后视距,第八行是第一站高程,第十九行到三十四行是无用的数据(铟钢尺没有扶正等原因造成的)第四十一、四十二行是间视点,每行分六个字段。因而首先用VB的函数SPLIT :S=SPLIT((textline1, "|"),把每行分成六个数组进行处理,然后用INSTR以及MID函数:InStr(1, s(3), QSHiSHiGaoZIDuan),作为条件,剔除无用的数据,把视距,视高等有用的数据导进access数据库,以备下一步进行数据处理。数据导入的部分代码如下:
adodblianjie1
rs1.Source = "select * from 水准表 "
rs1.ActiveConnection = conn1
rs1.Open
Do While Not EOF(1)
'For i = 1 To 45
Line Input #1, textline1
s = Split(textline1, "|")
If InStr(11, s(2), "#") Or InStr(11, s(2), WeiJianMing) Or InStr(1, s(2), KaiSHiHang) Or InStr(1, s(2), CHongFuCeZHan) Or InStr(1, s(2), KaiSHiJianSHiDian) Or InStr(1, s(2), JieSHUJianSHiDian) Or InStr(1, s(2), JieSHuHang) Or InStr(1, s(3), SHiJuCHa) Or InStr(1, s(3), QianSHiJuHe) Then
Else
rs1.AddNew
QHdianMing = Trim(Mid(s(2), 4, 15))
rs1.Fields("测量时间") = Calendar1.Value
If InStr(1, s(3), QSHiSHiGaoZIDuan) Then
ChangDu = Len(s(3))
QianSHiSHiGao = Val(Trim(Mid(s(3), 3, ChangDu - 5)))
SJChangDu = Len(s(4))
QianSHiJu = Val(Trim(Mid(s(4), 3, SJChangDu - 5)))
If Rf Then
rs1.Fields("前视视高1") = QianSHiSHiGao
rs1.Fields("前视视距1") = QianSHiJu
rs1.Fields("测站点") = "前" & QHdianMing
Else
rs1.Fields("前视视高2") = QianSHiSHiGao
rs1.Fields("前视视距2") = QianSHiJu
rs1.Fields("测站点") = "前" & QHdianMing
End If
Rf = Not Rf
End If
If InStr(1, s(3), HSHiSHiGaoZiDuan) Then
ChangDu = Len(s(3))
HouSHiSHiGao = Val(Trim(Mid(s(3), 3, ChangDu - 5)))
SJChangDu = Len(s(4))
HouSHiJu = Val(Trim(Mid(s(4), 3, SJChangDu - 5)))
If Rb Then
rs1.Fields("后视视高1") = HouSHiSHiGao
rs1.Fields("后视视距1") = HouSHiJu
rs1.Fields("测站点") = "后" & QHdianMing
Else
rs1.Fields("后视视高2") = HouSHiSHiGao
rs1.Fields("后视视距2") = HouSHiJu
rs1.Fields("测站点") = "后" & QHdianMing
End If
Rb = Not Rb
End If
If InStr(1, s(3), JianSHiSHiGaoZiDuan) Then '间视点
ChangDu = Len(s(3))
JianShiSHiGao = Val(Trim(Mid(s(3), 3, ChangDu - 5)))
SJChangDu = Len(s(4))
JianSHiju = Val(Trim(Mid(s(4), 3, SJChangDu - 5)))
SJChangDu = Len(s(5))
JianSHiDianGaoCHeng = Val(Trim(Mid(s(5), 2, SJChangDu - 5)))
rs1.Fields("间视点视高") = JianShiSHiGao
rs1.Fields("间视点视距") = JianSHiju
rs1.Fields("间视点高程") = JianSHiDianGaoCHeng
rs1.Fields("测站点") = QHdianMing
End If
If Trim(s(3)) = "" And Trim(s(4)) = "" Then
ChangDu = Len(s(5))
QianSHiDianGaoCHeng = Val(Trim(Mid(s(5), 3, ChangDu - 5)))
'QHdianMing = Trim(Mid(s(2), 4, 15))
rs1.Fields("前视点高程") = QianSHiDianGaoCHeng
rs1.Fields("测站点") = "高程" & QHdianMing
End If
rs1.Update
End If
Loop
rs1.Close
conn1.Close
Close
MsgBox "导入成功!"
1-1
3 数据的处理
数据进入access数据库后,充分利用ADO对象模型的数据访问策略 ,可以任意输出成多种格式,例如输出成EXCEL的格式。首先充分利用了microsoft office 11.0 object library进行EXCEL对象的定义:
Dim SHuiZHunexcel1 As Object '定义Excel对象
Dim SHuiZHunbook1As Object '定义工作簿对象
Dim SHuiZHunsheet1 As Object '定义工作表对象
Set SHuiZHunexcel1 = CreateObject("excel.application") '创建Excel应用程序对象
Set SHuiZHunbook1 = SHuiZHunexcel1.Workbooks.Add '添加工作簿
Set SHuiZHunsheet1 = SHuiZHunbook1.Worksheets(1) '操作的工作表1
然后利用Microsoft ActivX Data Object 2.6 Library ADO进行数据库的连接:
adodblianjie1
rs1.Source = "select * from 水准表 "
rs1.ActiveConnection = conn1
rs1.Open
最后输出成EXCEL格式的文件:
For i = 0 To rs1.Fields.Count - 1
SHuiZHunsheet1.Cells(1, i + 1) = rs1.Fields(i).Name
Next
If rs1.RecordCount > 0 Then
rs1.MoveFirst
For i = 1 To rs1.RecordCount
SHuiZHunsheet1.Cells(i + 1, 1).Value = rs1.Fields("测站点")
SHuiZHunsheet1.Cells(i + 1, 2).Value = rs1.Fields("前视视高1")
SHuiZHunsheet1.Cells(i + 1, 3).Value = rs1.Fields("前视视高2")
SHuiZHunsheet1.Cells(i + 1, 4).Value = rs1.Fields("前视视距1")
SHuiZHunsheet1.Cells(i + 1, 5).Value = rs1.Fields("前视视距2")
SHuiZHunsheet1.Cells(i + 1, 6).Value = rs1.Fields("后视视高1")
SHuiZHunsheet1.Cells(i + 1, 7).Value = rs1.Fields("后视视高2")
SHuiZHunsheet1.Cells(i + 1, 8).Value = rs1.Fields("后视视距1")
SHuiZHunsheet1.Cells(i + 1, 9).Value = rs1.Fields("后视视距2")
SHuiZHunsheet1.Cells(i + 1, 10).Value = rs1.Fields("前视点高程")
SHuiZHunsheet1.Cells(i + 1, 11).Value = rs1.Fields("间视点视高")
SHuiZHunsheet1.Cells(i + 1, 12).Value = rs1.Fields("间视点视距")
SHuiZHunsheet1.Cells(i + 1, 13).Value = rs1.Fields("间视点高程")
rs1.MoveNext
Next
End If
SHuiZHunexcel1.Visible = True '决定excel是否可见
4 使用效果及结论
沉降监测是一项精密的工程测量,由于工作多,任务重,时间要求紧,如果利用常规方法,保质保量按时完成任务,难度很大。限于此因,我做了这个与沉降监测工作配套的程序,极大提高了工作效率。此软件已在工作中使用很长时间了,迄今为止运行稳定,性能、效果良好。由于篇幅所限只能列举天宝DINI03的仪器数据,把数据导入,部分数据处理与同行分享,以此共勉。
参考文献Visual Basic函数参考大全 人民邮电出版社赛奎春 李俊民编著
ISBN 978-7-115-15387-6 2007.4
测量学(第四版)同济大学出版社顾孝烈等编著
ISBN 978-7-5608-4458-8 2012.2
篇2
一是数据体量巨大(Volume)。百度资料表明,其新首页导航每天需要提供的数据超过1.5PB(1PB=1024TB),这些数据如果打印出来将超过5千亿张A4纸。有资料证实,到目前为止,人类生产的所有印刷材料的数据量仅为200PB。二是数据类型多样(Variety)。现在的数据类型不仅是文本形式,更多的是图片、视频、音频、地理位置信息等多类型的数据,个性化数据占绝对多数(见图1)。三是处理速度快(Velocity)。数据处理遵循“1秒定律”,可从各种类型的数据中快速获得高价值的信息。四是价值密度低(Value)。以视频为例,一小时的视频在不间断的监控过程中,可能有用的数据只有一两秒。大数据不仅仅是海量数据,更是一种技术。大数据核心是业务模式,本质是数据处理技术。数据是资产,如何盘活数据资产,使其为国家治理、企业决策乃至个人生活服务,是大数据的核心议题,大数据技术是IT领域新一代的技术与架构,将帮助人们从大体量、高复杂度的数据中提取价值。用以分析的数据越全面,分析的结果就越接近于真实。大数据分析意味着能够从这些新的数据中获取新的洞察力,并将其与已知业务的各个细节相融合。各种研究表明,大数据是与智能制造、无线网络革命并行的又一次颠覆性的技术变革。其具体内容包括:海量数据分析技术、大数据处理技术、分布式计算技术和数据可视化技术。如图2所示,大数据技术主要包含三个部分:大数据产品、大数据管理、大数据使用。大数据产品主要是指各种数据获取系统,包含各种数据库、RFID、sensors等等。在无线电频谱监测中,其最明显的数据产品就是各种传感器、监测站设备等等。大数据管理主要是指大数据的存储、处理、过滤等各种关键技术,涉及各种电磁感知数据的整合和质量控制等,这个环节是大数据技术关键环节。大数据使用是挖掘、分析、搜索、扩充,是大数据技术的核心之处,即如何将数据转化为有用的信息。大数据发展催生大数据时代。大数据发展之快,已远远超出人们的想象。特别值得关注的是,2012年3月,奥巴马政府了“大数据研究与开发计划”,并宣布先期投资超过2亿美元的资金,用于研发大数据关键技术,以抢占数据资源开发利用的制高点。将“大数据战略”上升为国家意志。奥巴马政府将数据定义为“未来的新石油”,并表示一个国家拥有数据的规模、活性及解释运用的能力将成为综合国力的重要组成部分。未来,对数据的占有和控制甚至将成为陆权、海权、空权之外的另一种国家核心资产。2012年5月,联合国“全球脉动”计划了《大数据开发:机遇与挑战》报告,英国、德国、法国、日本、加拿大等发达国家积极响应。我国也于2012年10月成立了中国通信学会大数据专家委员会。种种迹象表明,世界各国特别是发达国家都把大数据的发展摆到国家战略层面加以推动,使大数据正在成为世界新的战略资源争夺的一个焦点。对于大数据的发展,全球知名咨询公司麦肯锡研究认为,数据已经渗透到每一个行业和业务职能领域,逐渐成为重要的生产因素;而人们对于海量数据的运用将预示着新一波生产率增长浪潮的到来,在政府公共服务、民生医疗服务、维护社会安定、动态安全监管等领域的广泛应用,将产生巨大的社会价值和产业空间。有机构预测,大数据应用将使美国零售业净利润增长实现60%,可使制造业的产品开发和组装成本降低50%。这种影响和变化是革命性的,说明大数据蕴含着大价值。大数据应用也开拓了军革新境界。大数据在当今世界科技、经济、文化等领域的应用是广泛的,在军事领域也是如此。如当前的美军信息系统,运行的数据中心超过772个,服务器超过7万台,还有约700万个计算机终端。2011年,美军战略司令部司令官罗伯特·科勒上将曾指出:“不断增长的数据搜集能力和有限的数据处理能力之间的鸿沟正在扩大。”因此,美军正在加紧推进大数据研发计划,确定了“从数据到决策、网络科技、电子战与电子防护、工程化弹性系统、大规模杀伤性武器防御、自主系统和人机互动”等7个重点研究领域。美军应对大数据的基本策略,是不断提高“从数据到决策的能力”,实现由数据优势向决策优势的转化。大数据已经渗透到每一个行业和业务职能领域。作为国家频谱资源的管理者,无线电管理机构要准确把握形势,积极应对挑战,重视数据的潜在价值,关注大数据前沿技术,加快推进其实际应用,使大数据技术早日应用于无线电频谱监管领域,推动无线电管理事业发展。
2无线电频谱监测进入大数据时代
随着无线电业务的迅猛发展、无线电设备的日益增多,以及无线电监测设施的不断建设,无线电监测正逐步呈现出大数据特征。(1)监测数据量巨大。截至2013年年底,全国已经建成1千多个固定监测站、上千个移动站、1千多个可搬移设备。利用这些监测设备,开展的频谱扫描、信号测量、占用度分析等工作产生了大量的监测数据,而网格化监测方式将产生更加海量的数据。(2)数据类型复杂多样。监测设备除了产生频谱扫描数据,还可以提供IQ数据、AD采样数据及音频、测向和定位数据等。(3)沙里淘金,价值密度低。大量的监测数据并不提供现成的有价值的信息。如何通过强大的机器算法更迅速地完成数据的价值“提纯”,为无线电管理提供管用、有用的信息,是目前大数据背景下无线电监测亟待解决的难题。(4)处理效率的要求高。大量的数据不能仅仅是存储为“数据档案”,需要及时、高效分析综合,为无线电管理提供快速的技术支撑,很多情况下需要实时或者准实时。大数据时代无线电监测要围绕新时期无线电管理工作“管资源、管台站、管秩序,服务经济社会发展、服务国防建设、服务党政机关,突出做好重点无线电安全保障工作”总体目标,切实解决资源是否摸清、台站是否管好、干扰查处是否及时有效、到底能提供哪些服务、保障工作有什么亮点这5个方面的问题。而大数据技术和网格化监测为解决上述问题提供了有效途径。
3网格化监测是以平台大数据处理为核心的新架构
如果监测数据是财富,那么网格化监测数据就是宝藏,而大数据技术就是挖掘和利用宝藏的利器。没有强大的计算能力,数据宝藏终究是镜中花;没有网格化监测数据的积淀,大数据技术也只能是杀鸡用的宰牛刀。无线电监测网是一种典型的传感网,而网格化监测的数据采集、存储、处理是一种典型的大数据技术架构,如图3所示,实际上在图2中大数据产品中就有sensors(传感器)。依靠网格化无线电监测设施,利用大数据技术,分析挖掘海量无线电监测数据,从而实现统计、分析、发现、预测等功能,充分发挥无线电监测数据效能,为无线电管理提供有用信息。网格化监测和大数据技术结合可以从以下4个方面转变无线电管理工作模式、提升无线电管理水平,如图4所示。(1)提升资源管理手段。网格化监测覆盖广、频段宽、时间长,可以全面掌控频谱资源使用和演变动态;监测“粒度”细,数据挖掘深,可以实现频谱管理精细化。(2)强化台站功能。利用监测辅助台站管理,实现对在用频率和发射设备的远程监控;分析监测检测结果,掌控台站工作状态;网格化监测提升台站监管的时效性和覆盖率。(3)主动获取频谱态势。通过广域、全时监测,实现多域的统计和深度分析,主动获取频谱态势。(4)服务经济社会发展。为业务使用者提供电磁环境态势,为公众和企业提供电磁环境数据,打造开放的无线电监管平台,实现数据共享,发挥无线电管理行业优势,为国防建设、社会发展作贡献。图4网格化监测和大数据技术结合提升无线电管理水平无线电监测已经积累了海量数据,这些数据还在不断急速增加,给无线电监测带来两个巨大的变化:一方面,在过去没有数据积累的时代无法实现的应用现在终于可以实现;另一方面,从数据匮乏时代到数据泛滥时代的转变,给数据的应用带来新的挑战与困扰。如何从海量数据中高效获取数据,有效深加工并最终得到感兴趣的信息变得异常困难。要利用这种架构实现上述4个主要目标,就需要具备下面4个关键技术:(1)数据存储和预处理技术。监测节点采集了很多数据,如果要将这些海量数据全部传输到数据中心进行有效的分析统计,会给现有通信网的传输能力和数据中心的处理能力造成很大压力。利用大数据分布式存储集群概念,可将原始采集数据做一些简单的清洗和预处理工作,将其暂时缓存在监测节点端。数据预处理有多种方法:数据清理、数据集成、数据变换以及数据归约等。这些数据预处理技术可以大幅提高数据挖掘的质量,并减少实际挖掘所需要的时间。(2)分布式计算技术。分布式计算是一种把需要进行大量计算的工程数据分区成小块,由多台计算机分别计算,再上传运算结果后,将结果统一合并得出数据结论的技术。目前常见的分布式计算项目通常使用世界各地上千万志愿者计算机的闲置计算能力,通过互联网进行数据传输。如分析计算蛋白质的内部结构和相关药物的Folding@home项目,该项目结构庞大,需要惊人的计算量,由一台电脑计算是不可能完成的,借助分布式计算可以相对廉价地完成他们的计算任务。其他还有如模拟百年以来全球气象变化,并计算未来地球气象的;主攻医药领域,以寻找抗癌药物和天花疫苗为主的UnitedDevices等项目。在网格化监测中,可利用监测节点的计算功能实现这一技术。各个监测节点(任务服务器)在监测中心(作业服务器)的统一调度下,根据不同的业务类型(客户端)和工作目标(客户端),分布式计算完成各自的数据挖掘任务,将结果上传到监测中心,再次进行高层次的统计,形成有价值的数据处理结果。具体作业流程如图5所示。(3)数据挖掘技术。数据挖掘(DataMining)是通过分析每个数据,从大量数据中寻找其规律的技术,主要有数据准备、规律寻找和规律表示3个步骤。数据挖掘的任务有关联分析、聚类分析、分类分析、异常分析、特异群组分析和演变分析等。网格化无线电监测中的数据挖掘主要是通过分析和统计监测网中各个监测设备产生的频谱扫描数据、IQ数据、解调结果数据、占用度统计数据等,生成各种频谱资源状态和趋势、台站工作状态、空间信号分布等等。(4)数据处理结果的可视化。可视化本来属于数据挖掘部分中的一个环节,即解释和应用。在无线电监测工作中要将看不见的频谱资源用可视化手段展现非常重要,所以将无线电监测数据处理结果的可视化单独讨论。可视化(Visualization)是利用计算机图形学和图像处理技术,将数据转换成图形或图像在屏幕上显示出来,并进行交互处理的理论、方法和技术。无线电监测数据的可视化能够把抽象的监测数据,变为直观的、以图形图像信息表示的、随时间和空间变化的物理现象呈现在管理者面前,使他们能够观察、研究。网格化监测平台的可视化重点要做到:报表模板灵活、图表形式多样、OA集成展现、移动跨平台访问,使管理者看得明白、管得方便,如图6所示。
4总结
篇3
【关键词】建筑物;变形监测;数据处理
变形是一种非常普遍的自然现象,但是在建筑工程领域内,变形必须被控制在一定的范围之内,否则就会增加很多建筑安全隐患,产生非常严重的后果,危害人民群众的个人财产和生命安全。为此,建筑变形监测数据处理需要引起相关部门的重视。为了准确分析建筑变形情况,本文首先对建筑变形监测的内涵和内类型进行了论述,然后重点论述了变形监测数据处理的方法,具体如下。
一、建筑变形监测概述
(一)建筑变形监测的内涵
所谓建筑变形监测,就是指结合多种方法对建筑物的变形程度进行检测,然后对检测的数据进行深入的处理和分析,准确评估建筑物的变形程度,判断其安全性的过程[1]。建筑物在施工和使用的过程中,在多外力作用下很可能发生变形,如果变形在正常范围内,那么对建筑物的安全使用不会造成较大影响;但是如果变形程度较大,超过了控制范围,就会对建筑物的安全性和可靠性造成严重影响。
同时,需要注意的是,虽然建筑物在设计时会设定一个安全系数,但是在实际的施工和使用中,载体的作用力会出现变化,当其载体的作用力增加时,就会对安全系数造成破坏[2]。所以我们需要对建筑物的变形进行监测,及时发现导致变形的原因,并采取相关的应对措施来解决,尽量将建筑物的变形控制在正常范围内,降低变形产生的危害。
(二)建筑物变形监测的类型
本文根据变形监测的范围将其分为局部性、区域性和全球性监测三种类型,我们这里讨论的建筑物变形监测主要指局部性监测。在对建筑物进行变形监测时,需要结合变形监测的特点,认真落实每一个细节。由于建筑物的变形程度会不断发生变化,所以对其的监测也需要长期进行,具有周期性和重复性特点。另外,随着现代科学技术的不断发展,我们还可以运用多种先进的监测技术,提高建筑物变形监测数据的精确度。
二、建筑物变形监测数据处理的主要方法
(一)建筑物变形监测数据处理的要求
首先,要求数据具有较高的精确度。这是准确分析建筑物变形程度的前提。在保证处理数据精确度的基础上结合实际情况考虑其合理性。如果精确度较低,就会影响分析结果,不利于准确把握建筑物的变形情况,但是如果精确度太高,就会增加测量的难度,使工作复杂化,造成时间和人力资源的浪费。所以在设计监测精度时,一定要合理。
其次,能满足重复监测的需求。在对建筑物变形监测数据进行处理时,往往需要结合两个相邻周期的数据变化,以便判断变形发生的时间特点和变化规律。
(二)建筑物变形监测数据处理的方法
变形监测的数据有一些是在监测过程中测量产生的,还有一些是由外部因素导致的,例如,建筑物所在地区的气候环境等都会对建筑物的变形产生影响,所以对数据的处理可以分为两类,即内部和外部监测数据。这两种类型数据的处理方法具有一定的差异性,具体如下:
首先需要进行外部监测数据处理,这样可以消除其他诸多因素之后专门的处理内部监测数据。第一步,记录水平和垂直方向上的基线变化情况,并制成基线数据处理表,将不同的观测时间内的水平方向与垂直方向的原基线与基线的增量都记录在一起,这样在对数据进行处理的时候有助于不同时间点的相互对照。第二步,根据相邻时间段的基线数据情况绘制曲线图,有助于直观观察测量过程中基线增量的变化情况。
除了上述比较传统的数据处理方法之外,科学技术的发展催生出了很多新的变形数据处理方法,例如最大间隙法和平均间隙法。采用这种数据处理方法需要构建高斯―马尔可夫模型。这种数据处理方法的优势就是可以直接判断建筑物是否发生变形。但是通常情况下,建筑物变形是无法避免,只是变形程度上的不同,因此,这种检测方法在实际中的应用没有意义。另外,卡尔曼滤波法也是一种新的数据处理方法,这种方法属于最优估计的一种,最大的优势就是对状态进行估计,能够根据观测数据对随机量进行定量推断进而估计问题,对建筑物变形数据的处理可以起到一定的作用[3]。另外,回归分析法也是一种常用的变形监测数据处理方法,主要是通过建立估计变形和影响因素之间的函数关系来实现的。
结束语
综上所述,建筑物的变形具有不可控性,无法避免,会对居民的个人财产和生命安全带来严重危害。但是我们可以通过对变形进行监测和数据分析来及时掌握建筑物的变形情况,并采取针对性的应对措施来降低建筑物变形产生的危害。在对变形监测的数据进行检测时,一定要合理运用科学手段,并具有足够的耐心。因为建筑物变形监测是一个长期的过程,只有保持耐心和恒心才能保证监测数据的准确性,为后期的数据分析提供可靠依据。
参考文献:
[1]熊俊楠,王泽根,徐忠印,等.高层建筑物变形监测数据处理方法研究及工程应用[J].测绘科学,2010,S1(17):69-71.
篇4
与即时通讯类的网络应用不同,博客、个人空间、微博都具有一定的公共性质,并被统称为自媒体。自媒体的兴盛,使其成为热点舆情形成的重要推动者,而网络舆情也成为社会舆情的重要组成部分。
自媒体几乎没有准入门槛,同时又具有匿名性,使用者的媒介素养良莠不齐,很容易产生各种失范现象;自媒体也不像传统媒体那样容易监督,对于失范现象难以追溯源头,同时给各方主体带来影响舆论、把控舆论走向的机会,使得网络舆情处于更加复杂的环境中。自媒体的网状结构又决定了网络舆情可以快速发酵,甚至在短时间内多次转向,因此更加难以监控和把握。
而对自媒体勃兴之后网络舆情的监测,传统的现场调查、访问调查、问卷调查等方式收效不佳,早期曾经广泛使用的网络舆情监测手段也暴露出了越来越多的问题。早期的网络舆情监测,主要是针对Web1.0设计的。互联网发展至今经历了两个阶段:Web1.0和Web2.0。两者的主要区别并不在于技术规范或物理设备,而是用户之间以及用户和网络应用之间的交互方式。
在Web1.0时代,互联网内容主要由各大网站生产,用户和网站的交互主要体现为寻找和接受相应的内容,用户之间也只能通过有限的方式进行散落联系。早期的网络舆情监测,就是针对这样层次的交互而设计。流程大致是:一、通过相关样本库,把需要监测的网页进行模板匹配,并设定为监测数据源;二、应用爬虫程序抓取数据,存储到本地,再进行数据的净化和简略的分析;三、利用简单的图表模板和文字描述,呈现监测和分析的结果。
早期的网络舆情监测方式有一些原生的问题,譬如:一、由于处理能力有限,只能抽取部分样本进行监测,无法避免偶然误差;二、文本分析算法的准确度、监测对象和系统模板匹配的程度、对数据的净化,以及分析的算法等因素对于最后监测结果的准确度都有决定性的影响,无法避免系统误差;三、将监测的对象简化为独立的信息元,欠缺分析网络内容之间联系的能力和预测能力。
早期的网络舆情监测方式,尽管有很多问题,对Web1.0时代的离散的网络内容和单向的交互方式来说还可以适用。随着互联网发展到了Web2.0时代,早期网络舆情监测方式的局限性表现得日渐明显,其监测功能已经弱化而无法适应新的舆论环境。
二、大数据技术下的网络舆情监测
Web2.0时代最突出的特征就是更紧密的网状结构。用户自主生成内容使网络内容生产者数量呈几何级增长,用户与网站之间双向交互,用户与用户之间也在进行多渠道、多层次的立体的交互。Web2.0的网络内容不再是离散的,具有强烈的“关系”属性。这种基于各种强弱关系的网状结构,也直接使网络舆情能够快速成型、发酵,短时间内可以多次转向。Web2.0时代的舆情监测,更关注“关系”,能够更快速、更准确地跟踪舆情变化。这正是早期网络舆情监测的缺陷。
新的舆论环境,需要加强网络舆情的监测,而新的网络舆情,需要新的监测方式。大数据技术下的网络舆情监测,就是这样一种新的方式。
自1980年以来,全球的数据存储能力每40个月就翻一倍。不断进行量级上的增加的庞大数据量和数据背后蕴藏的信息,带来了大数据时代。
大数据通常指的是庞大、复杂,难以用传统的软件工具来分析处理的数据集。对大数据的处理,又牵涉到从数据抓取、整理、分析、共享、可视化到存储、传输等一系列问题。大数据集合常常来源于日常生活,与人的行动、交往有一定的同构性,部分条目直接附加了时间、地理等信息。可以说,在大数据的数据集合中天然蕴含着各种关系。因此,大数据集合能提供同数据量的若干小数据集合无法带来的新信息。人们可以通过数据挖掘寻找数据之间的联系,确立数据之间相关关系的规律,进而提供多方面的预测。
显而易见,大数据处理技术的优势,正契合了Web2.0时代的特点。正因为大数据在挖掘数据之间的关系、进行发展趋势预测方面的能力,已经有很多机构借助其进行舆情监测和呈现,并取得了不俗的成绩。譬如在新闻业,就有不少国际传媒机构已经在各种项目中采用了大数据分析和数据可视化技术,如BBC以及《卫报》《华盛顿邮报》《纽约时报》等。
三、大数据带来舆情预测的新可能
“预测”本身就是大数据的一个重要应用。针对同一主题的海量数据进行分析,经过数据挖掘和建模后,可以得到相应的预测模型,进而预测将来的发展趋势。譬如奥巴马竞选团队,就在2012年竞选的多个环节运用了大数据技术,特别是在实时监测选民意向、预测投票情况方面。竞选团队每晚都会使用特制的模拟大选的模型,根据实时监测的选民意向模拟大选,并在第二天上午根据模拟结果对各州重新分配竞选资源。这种对舆情的实时监控和预测对奥巴马2012年总统连任起到了重要作用。
麻省理工学院博士内森·凯乐斯的一项以2013年埃及爆发的民众抗议活动的大数据预测为主要案例的研究,获取了全球范围主流媒体新闻、政府出版物、社交媒体、博客等各种类型超过三百万个数据源的目标数据。其证明可以通过大数据技术和特定模型来发掘公众的情绪、态度变化,并最终预测以大型抗议活动为代表的大型公共事件的发生,包括事件即将发生的时间地点。
而这还仅仅是一个开始。大数据有不同的来源,互联网中以自媒体为代表的各种原创内容持续爆炸式增长,各种移动通讯设备、可穿戴设备也在不停地产生和存储、传递各种数据,除此之外的数据来源还有麦克风、摄像头记录的音频、视频数据,运营数据,遥感数据等等。
按照来源不同,数据大致可以分为三类,即以自媒体内容为代表的用户原创数据、各种经营活动中产生的运营数据(如销售记录、医疗记录等)、感知数据(如各种可穿戴设备获取的数据)。其中用户原创数据对舆情监测的重要性已经显现,而对其他数据来源的大数据分析、不同数据来源的融合分析,也蕴含着巨大的舆情预测潜力。
篇5
关键词:环境;监测数据;审核方法
一、监测数据的审核利用动态数据库来进行
在环境监测数据审核时,一些有经验的审核人员大多数情况都是根据自己的实际工作经验,把出现异常的数据找出来,然后对这些数据进行监测,这样在工作过程中很容易产生误差。因此,在工作中,要注意把环境监测的动态数据库建立好,将新的监测结果及时地整理到动态数据库中,从而不断的补充和完善数据库。在每批的监测数据结果出来后,审核人员就可以把它与动态数据库中的历年数据进行比较,然后查看单个数据和各项均值是否处于正常状态、数据是否符合监测结果的变化规律。例如,青海省三江源区域水资源的监测就是采用了动态数据库的方法来进行的,建立起了又底层数据库系统、功能模块。用户图形界面三部分组成的动态数据库系统,对动态数据库进行查询和管理,从而使得青海省三江源区域水资源得到了有效的保护和利用。
二、监测数据的审核利用其可比性进行
首先,对比各种物质间关系,进行合理分析。各物质间本身存在着一些相关性,而如果能够充分地了解到这些相关性,有助于监测数据的审核。例如,在地表水监测中,同一水样CODCr、BOD5、CODMn三者之间的检测数据存在以下规律:CODCr> BOD5、CODCr>CODMn。在煤烟型污染的环境中,一般情况大气中的NO2要比SO2小2到6倍。但是在汽车较多的环境中,NO2浓度要比SO2大。像以上的这些变化在进行环境监测数学审核时一定要加以注意。
其次,对比类同检测对象的环境统计资料。例如,两个工厂生产产品相同、工艺条件相似、污染物大致在一个范围内波动,此时如果准确的掌握了其中一个厂子的环境监测数据,那么就可以用对比法来对另外一个厂子的环境监测数据进行审核。
再次,与其它环境要素进行结合。在环境统计资料分析的基础上,适当的要与化学、生物、物理、水文等资料相结合来进行分析。例如,在进行河流水质监测中,在一年中不同时期,河水溶质成分呈现季节性变化规律由河水的补给状况、河水溶质成分以及流量的变化决定,并且三者有密切关系。
通过可比性进行检测数据审核工作可以使环境监测能力的持续性和有效性得到有力验证,例如四川省为了加强全省环境监测站的质量管理,经过环境监测站实验室间14个项目的比对考核,经考核使得环境监测能力得到了强有力的肯定。
三、监测数据的审核利用实验有关的条件来进行
在环境监测中,由于分析人员的一些错误操作而导致数据出现异常情况这种现象也是存在的。例如,数据计算错误、瓶号错位、计量单位换算错误、仪器读数错误等。除此之外,导致异常数据出现的原因有采样的代表性、仪器有无污染、仪器的使用方法、纯水和试剂的浓度等。分析人员要向避免人为的错误,就必须保证熟练掌握这些因素,从而才能得出正确的监测结果。因此,要加强实验室软硬件建设,培训和锻炼一批技术人员,严格按照国家标准的检测方法,反复实验。另外,由于环境监测是一项专业性较强的技术工作,为了保证检测数据的准确可靠,不仅需要检测人员认真负责、技术娴熟,更需要有科学严谨的工作程序和运行稳定的质量保证体系,而且检测项目还应通过相应级别的计量认证,取得专业技术能力的法律效应。因此,应该组织一些专业人员来制定一些相关管理文件。
四、监测数据的审核利用物料衡算来进行
在污染源监测数据审核方法中,利用物料衡算验证监测结果是最常用的一种方法。废水流量有时很难测准确,其主要原因就是由于污染源监测受到了条件、监测手段、技术、人员素质的影响,而在一些中小企业中,其排污管很不规则,并且没有自动流量计,因此排水量通常是以用水量来进行核算的,污染物排放量的推算是用原材料用量来进行的。例如,对某企业总排污口进行多次监测,监测结果为100~140 t/h,平均值为120 t/h,从监测结果数据中发现,没有什么问题,属于正常情况。但是据调查发现,企业生产用水平均值要大于250 t/h,实质上,企业用水也就是在打扫卫生的时候,而且用水量也较少。经过多次监测后发现,企业通过一个暗管把部分废水直接排到河水里面,像这种情况要是采用常规方法是很难被发现的。
五、监测数据的审核利用经验系数来进行
这种审核的方法主要就是利用审核人员的知识和日常积累的经验,把排污量和产品产量之间的关系掌握清楚,从各种资料中介绍的经验系数对部分数据进行审核。数据是监测工作的核心,是环境管理的重要依据。在数据考核企业污染排放、考核地方政府减排任务、考核城市创模、仲裁环境纠纷等方面,数据具有重要的考核和审判依据价值,具有很强的话语权。尤其是对新污染源数据进行审核,这些数据没有历史记录,那么在审核的过程中除了对监测过程进行严格审核外,还必须把利用经验系数进行验证作为重点。
六、结语
总而言之,在进行环境监测数据的审核时,最为重要的就是把人为因素克服掉,提高数据审核人员的整体素质,保证审核人员要以科学的态度来完成数据审核工作,只有这样,才能使得环境规划得到进一步发展。
参考文献:
[1] 杨驰宇,陈艳杰. 浅论环境指标的相关性分析在监测数据审核中的应用[J].中国环境监测, 2009, (03)
篇6
【关键词】配网故障抢修流程 监测 验证 测试报告 时长
为了提高供电企业供电的安全性与可靠性,必须提高配网故障的抢修效率,是否能够顺利、高效地完成配网故障的抢修,直接反映出电力企业的服务水平。因此,监测配网故障抢修流程,可以促进制度落实、业务协同、流程优化和效率提升。
1 设计依据
公司依据配网故障抢修流程监测的业务设计说明,对其中涉及的《国家电网公司配网故障抢修管理规定》[国网(运检/4)312-2014]、《国家电网公司电网调度控制管理通则》[国网(调/1)93-2014]、《国家电网公司95598故障报修处理规范》[国网(营销/4)272-2014]进行核实。经验证,其内容与设计说明文档中设计依据的内容相符。
2 监测要素及监测维度情况
在与公司配网抢修指挥班沟通后了解到,按照省客服中心安排,现配网故障抢修流程中工单审核环节已经取消,地市配网抢修指挥班收到抢修班组的工单回复后直接向国网客服中心回复,因此建议取消对工单审核环节时长的监测。主要从配网故障抢修总时长及业务受理、接单派工、到达现场、故障处理、回访归档5个关键环节时长开展业务验证。
2.1 配网故障抢修总时长监测
共梳理相关数据字段10项,均为线上数据,涉及客服工单管控系统,包括:供电单位、工单编号,用户名称、联系电话、电压等级、故障报修类型、城乡类别、故障处理部门、业务受理时间、回访归档时间。验证结论:经验证,配网故障抢修总时长虽不能从工单管控系统中查出,但可通过数据字段业务受理时间和回访归档时间计算得出。故涵盖的10项数据字段可满足配网故障抢修总时长监测要求。
2.2 关键环节时长监测
共梳理相关数据字段16项,均为线上数据,涉及客服工单管控系统,包括:供电单位、工单编号,用户名称、联系电话、电压等级、故障报修类型、城乡类别、故障处理部门、业务受理时间、派发时间、接单派工时间(工单到达)、接单派工时间(处理时间)、到达现场时间、故障处理时间、回访归档时间(工单到达)、回访归档时间(处理时间)。验证结论:经验证,接单派工环节时长和工单回访归档时长不能在工单管控系统中查出,但可从相关时间节点计算得出。通过对比其余主要环节时长与规定时长,可掌握制度执行情况。其他监测要素和监测维度基本满足配网故障抢修流程关键环节时长监测业务的预期要求。
3 业务系统及数据支撑情况
依据已确定配网故障抢修总时长和关键环节时长两个监测要素,对相关业务系统和业务数据支撑情况进行梳理,确定相关字段16项,均为线上数据,涉及客服工单管控系统。
3.1 业务系统支撑情况
配网故障抢修监测业务相关的16项线上数据,均可从客服工单管控系统中提取。经验证,业务系统可满足配网故障抢修监测业务的系统支撑。
3.2 数据支撑及数据质量情况
经验证,线上16项数据中,10项数据(供电单位、工单编号、用户名称、联系电话、电压等级、故障报修类型、城乡类别、故障处理部门、到达现场时长和故障处理时长)可通过系统直接提取。业务受理时间(工单到达、工单处理)接单派工时间(工单到达、工单处理)、回访归档时间(工单到达、工单处理)系统中可提取数据,通过这几项数据可计算得到配网故障抢修流程总时长、业务受理时长、接单派工时长、回访归档时长。因此,16项线上数据可以满足配网故障抢修监测业务的系统支撑。详细数据支撑情况见附件二。
4 监测价值
按照业务设计确定的监测维度和要素,从国网铜川供电公司2016年4月份配网故障报修工单中按供电单位选取了18份工单,重点对各环节涉及数据准确性、完整性、可用性进行验证分析。具体情况如下:
4.1 配网故障抢修总时长监测
因设计说明《国家电网公司95595故障报修处理规范》[国网(营销/4)272-2014]中未涉及配网故障抢修总时长的时限要求,且配网故障抢修流程中的业务受理环节和审核归档环节为国网客服中心完成,时间不受地市公司支配,具有一定监测价值。业务受理环节时长监测:经验证,18组数据的工单到达时间节点均与业务受理时间节点一致,在2分钟的规定时限之内,有一定监测价值。
4.2 接单派工环节时长监测
通过客服工单管控系统导出的数据,接单派工环节时长包含工单到达时间和处理时间,可由这两个时间节点计算出接单派工环节时长。经验证,18份工单的接单派工环节平均时长为19秒,远小于设计依据规定的3分钟时限,表明地市配网抢修指挥班对国网工单的接收下达执行情况较好。从监测分析结论看,可促进配网故障抢修流程的优化和效率提升,具有较高监测价值。
4.3 到达现场环节时长监测
经验证,将18份工单按照供电单位来分,印王分公司6份、耀州分公司6份、宜君分公司6份,分别计算每个单位的到达现场平均时长,印王分公司为17分41秒、耀州分公司为18分39秒、宜君分公司为16分52秒。对比三个单位的平均时长,可发现耀州分公司的6份工单中有5份为农村用户,其到达现场平均时长最长,故到达现场时长受用户地理位置影响。但抢修班组可通过建立有效的应急机制等途径减少到达现场用时,因此监测到达现场环节时长具有较高价值。
4.4 故障处理环节时长监测
经验证,故障处理环节时长受现场环境状况、备品备件是否齐全、故障修复难易程度等因素影响。通过对比三个供电分公司的故障处理平均时长,可在不同单位间进行横向比较,促进部门间的良性竞争,提高供电服务水平,因此监测价值较高。
4.5 回访归档环节时长监测
通过客服工单管控系统导出的数据,接单派工环节时长包含工单到达时间和处理时间,可由这两个时间节点计算出工单回访归档环节时长。经验证,18份工单的回访归档环节时长均在规定时限内,但由于工单的回访归档是由国网客服中心完成的,时间不受地市公司支配。因此对于地市公司来说,回访归档环节时长具有一定监测价值。
5 结论
5.1 验证结论
优化完善监测要素和监测维度。结合数据获取和业务现状,建议取消工单审核环节时长的监测。
5.2 分析结论
配网故障抢修流程的回访归档时长受国网客服中心掌控,因此建议地市公司将监测重点放到接单派工环节时长、到达现场时长和故障处理环节时长上,其他项(配网故障抢修总时长、业务受理环节时长、回访归档环节时长)作为一般关注。通过验证,接单派工环节、到达现场环节和故障处理环节的用时均在设计依据的规定时限内,反映出公司对配网故障抢修相关制度标准执行情况较好,部门间工作流程流转顺畅。
参考文献
[1]国家电网公司配网故障抢修管理规定[国网(运检/4)312-2014.[Z].2014.
篇7
关键词:颗粒物;监测数据;偏差原因
中图分类号:X83 文献标识码:A
环境监测质量控制是环境监测中十分重要的技术工作和管理工作,是一种保证监测数据准确可靠的方法,也是科学管理监测系统的有效措施,它可以使环境监测建立在可靠的基础之上。根据《环境空气质量标准》、《空气和废气监测分析方法》、《固定污染源颗粒物与气态污染物采样方法》等标准方法要求,颗粒物手工监测仍然采用重量法。即将颗粒物采样管插入烟道中,按颗粒物等速采样原理,抽取一定量的含尘气体,根据滤筒上捕集到的颗粒物的量和同时抽取的气体量,计算出排气中颗粒物的浓度。
1监测现状及问题
1.1 颗粒物排放浓度较低
火电行业烟尘治理一般采用静电除尘器,除尘效率在99%以上。烟尘排放标准多为50mg/m3;水泥行业颗粒物治理多采用布袋除尘器,除尘效率更高,其颗粒物排放标准多为30~50mg/m3。而在实际监测中,多数污染源颗粒物排放浓度远低于其执行标准。
1.2手工监测误差较大
在对颗粒物排放浓度的手工监测过程中,多种因素会增大手工监测的误差。比如滤筒的前后处理方法、天平室的称量环境、采样点位、采样参数、生产运行工况、采样仪器误差、人员误差等等。手工监测的较大误差对低浓度颗粒物监测结果的影响越来越明显,已成不可忽视的问题。
1.3滤筒质量参差不齐
在高流速或高温度、低浓度颗粒物排放管道中长时间采样,经常会出现滤筒捕集效率低、滤筒失重等情况;而在湿度较大的管道内采样,又容易出现滤筒破碎、粘连等情况,直接后果就是监测结果出现负值,无法使用,更无法提及样品的代表性。
上述情况已成为当前颗粒物监测的难题,而这种难题暂时仍无法解决,只能在方法范围内进一步探讨导致数据偏离的原因,寻求解决办法,尽可能地提高监测数据地有效性。
2检测数据偏差原因分析
2.1玻璃纤维滤筒方面
作为样品采集的重要媒介,滤筒的质量至关重要。一般要求滤筒材质均匀,轻敲不掉渣、轻搓不起层,高温不失重,高湿不破碎。而目前市场上玻璃纤维滤筒品牌繁多,质量良莠不齐,达到基本要求的滤筒很难找到。这就难以避免滤筒出现失重现象,从而导致数据缺乏平行性,甚至样品全部为不合理的负值,根本无法谈及样品的代表性。
1)滤筒高温失重
按照常规方法要求,采样前滤筒应在105℃~110℃烘烤1h,然后于干燥器中冷却至室温,并用感量0.1mg的天平称量至恒重。而在实际应用中,烟气温度往往要高于105℃,滤筒在这种高温且烟气流速较高的情况下使用30min以上,就会出现失重现象。通过对某两种品牌玻璃纤维滤筒在105℃和160℃两种情况下烘干1h恒重后的称量对比,发现仅在实验室内滤筒平均失重就达2.8mg和3.8mg。
因此,在烟气温度高于105℃的环境下采集颗粒物样品时,不能仅将滤筒在105℃下烘烤,至少应将温度提高至160℃。
2)滤筒装卸误差
按现行采样方法,每个监测点位至少采集3个样品。这就要求采样人员必须在监测现场更换滤筒。而监测现场多数位于户外,滤筒安装、取出、密封等过程会受风沙等外界因素干扰,在高流速、高湿度烟气下采样后的滤筒在装卸时更容易掉屑,从而导致滤筒失重。
通过试验来说明滤筒在采样、装卸过程中产生的误差。在环境空气中模拟动压120Pa情况下采集3个样品,每个样品采集30min。经称量对比,滤筒平均失重达2.1mg。如果将4.1.1高温失重的因素也考虑在内,那么滤筒的失重将达到4.9~5.9mg。以上述试验的平均采样体积447L计算,最终对监测结果的影响是11.0~13.2mg/m3。这相对于30~50mg/m3的排放标准来说是绝对不可以忽略的。
2.2 现场采样方面
(1)采样媒介的选择
采集低浓度颗粒物样品,要事先了解采样点位的特点,针对不同条件选择合适的媒介。通过试验对比及考虑滤筒表面积大、易掉屑等因素,在高温度、高流速、高湿度等特殊条件下采样,采用玻璃纤维滤膜代替滤筒比较可行。此方法仍基于重量法,相比滤筒,其优势在于滤膜、采样头为一体装置,采样过程中不更换采样媒介,避免产生人为操作误差。在生产工况稳定的情况下,使用滤膜采样可以保证监测数据的平行性。
以下是对辽宁某电厂除尘器出口及脱硫塔出口两个有代表性的点位,分别用滤筒和滤膜进行采样的监测对比。
表1为除尘器出口监测数据。该点位烟气温度较高,147℃,湿度较小,6.7%,烟尘浓度较低。使用滤膜和滤筒的监测结果分别为22~34mg/m3和6~46mg/m3。就样品整体而言,使用滤膜采集的样品,标准偏差为4.9mg/m3;滤筒采集的样品,标准偏差为16.5mg/m3。
表2为脱硫塔出口监测数据。该点位烟气温度较低,56℃;湿度较大,13.5%;烟尘浓度较低。使用滤膜和滤筒的监测结果分别为5~8mg/m3和13~52mg/m3。同样就样品整体而言,使用滤膜采集的样品,标准偏差为1.4mg/m3;滤筒采集的样品,标准偏差为15.9mg/m3。脱硫塔出口用滤筒采集的样品结果明显偏大,不排除脱硫湿烟气中盐类物质富集到表面积较大的滤筒内,难以在实验室烘干过程中去除,从而导致烟尘浓度增加的可能。
(2)采样条件的保证
等速采样是获取有代表性样品的关键条件之一。所谓等速采样,就是气体进入采样嘴的速度Vn应与采样点的烟气速度Vs相等,其相对误差应在10%以内。当采样速度Vn大于采样点烟气流速Vs时,采取的样品浓度要低于实际浓度;当Vn小于Vs时,样品浓度高于实际浓度;只有Vn等于Vs,样品浓度才与实际浓度相等。
现场监测过程中,偶尔会发现监测仪器动压不稳定、采样流量过大、负载过高、采样枪偏移等现象,没有真正做到等速采样。出现上述情况,将会影响到计温、计压、流速的测定,从而影响到采样体积和烟气量的计算,并最终导致烟尘排放浓度及排放量数据偏离。
因此在采样前要多次预测流速,掌握烟道内各采样点位的情况,选择合适口径的采样嘴和采样方法,使用支架保证皮托管的方向、角度稳定,确保等速采样。
2.3 质量保证方面
(1)采样仪器必须经计量部门检定合格;
(2)定期对监测仪器进行期间核查;
(3)定期对流量计、压力传感器进行校准;
(4)保证主机内部Kp值与所用皮托管Kp值为同一数值;
(5)保证天平室的恒温恒湿条件;
(6)采样监测选择有代表性的监测点位,避开涡流区;
(7)采样前应做采样系统气密性检测,确保采样系统不漏气;
(8)采样前将采样枪放入烟道中,并背向气流,待温度上升至烟道温度时开始采样;
(9)停止采样时,在防倒吸泵未关闭前将采样管取出,避免烟气负压抽回采集的样品;
(10)及时更换硅胶,保证干燥烟气进入仪器,防止过载。
结语
综上所述,在颗粒物检测中,要注重滤筒的选择,把好质量关,杜绝劣质滤筒对监测数据带来的影响。重视滤筒的前处理工作,采样前对采样点位进行了解,视情况选择合适的前处理方法,保证滤筒在足够高的温度下烘干,称量时必须恒重。采集低浓度颗粒物样品时使用效果更佳的玻璃纤维滤膜,采集高浓度样品使用滤筒,保证监测过程严格遵守监测规范,做好质量保证工作。
参考文献
篇8
关键词:防雷 智能化 监测
一、气象防雷监测智能化处理的重要性
雷电灾害是人类几大自然灾害影响较大者之一,其有着放电电压高和时间短两个特点,若没及时监测并采取防范措施,其对击物的破坏性是相当大的,因此,工业、电台、铁路等领域都将其作为重视的对象。对地面产生影响的雷电有三种:球雷是第一种,即内部电磁平衡的高度旋转的离子球体,当其遇到障碍物时与之碰撞或补充能量,从而引发放电现象;第二种直击雷则是带点云层和地面发声的到点现象;第三种感应雷则是受到静电作用的影响,带点云层让地面某一范围有了异种电荷,从而所产生的导电现象。一般情况下,一旦发生直击雷,感应雷则同样很有可能发生。以上雷电,地面气象防雷监测若是未事先察觉并采取应对措施,轻则经济损失,重则人员伤亡。随着21世纪科技技术的发展,防雷监测系统也走向智能化,实行数据智能化处理的优势在于:第一监测数据更加精准,能够采取更有效的应对措施;第二是正因为其智能化的精准性,减少许多不必要的经济损失;第三是工作料率的提高,数据智能化处理不仅精确还速度较快,不必要让工作人员人工处理,速度相对较慢,精准度又不及前者。这三点足以体现气象防雷监测数据智能化处理的重要性。
二、气象防雷监测智能化处理的原理
21世纪的今天,电子产品已经广泛使用,防雷也成为社会建设中必须的工作之一。防雷监测是保护防雷设施的前提,而防雷数据监测智能化处理则可以提高其工作效率。
防雷智能检测系统分为硬件和软件,软件是控制主导,其包括远程检测记录单元、中心数据查询软件运用、数据采集软件。硬件包括服务器、信号放大滤波、传感器、D/A、A/D、微处理器、打印机、显示器、其他转换电路、绘图仪、并行口、总线、以太网等。该系统智能化处理的原理是:首先利用远程监测记录单元透过传感器或敏感元件从所监测出来的客观事物中得到电源电压、环境温度、防雷设备的雷击电流等信息。其次,数据采集软件可以从通讯接口获取远程监测记录单元中记录的数据,并将所得数据嵌入自捡报文。然后,数据传输设备将自检报文中所监测的客观事物状态汇总,发到服务器中。最后,位于服务器中的中心数据查询软件将这些数据进行读取分析,形成图文格式,以便检测人员方便快速的了解防雷设备的电源电压、环境温度、雷击电流和状况、工作习惯、用电质量及电涌保护系统状态等。
三、气象防雷监测智能化处理的应用
气象防雷监测数据智能化处理在现代文明中起到非常大的作用,在建筑、工业、电台、铁路等领路得到广泛引用。笔者在此稍作举例说明。
监测智能化处理在建筑物中的应用。防雷智能监测系统在建筑物中主要监测金属、针、带、线、网等避雷设备,建筑物的内部环境需要接闪器,而外部的金属、非金属物品则要接地电阻、均压环、金属管道、引下线等。
监测智能化处理在铁路通信设备中的应用。防雷智能监测系统在铁路通信设备中主要监测防雷设备、电源系统、铁路通信设备金属部件、室外通信站、接地系统、机械室安装法拉第笼式接地系统等。
监测智能化处理在5T探测站中的应用。5T系统即铁路车辆安全监控系统,防雷智能监测系统在其中主要监测电源配电箱、轨边信号、电源、通讯、电涌保护装置、探测站环境文图、同轴天线等。其提供的参数包含以下几个方面:电源配电箱的电流电压、电涌保护所要承受的电流强度和释放电流强度、电涌保护箱对电源和信号保护次数时间、探测站环境温度、电涌保护的寿命等。
值得注意的是,在防雷智能监测系统的运用中,监测人员必须严格按照规章制度使用和操作、认真并且仔细的对待该监测工作、提高自身职业素养、对监测系统进行定期检查、保养和维修去了。
综上所述:气象防雷监测数据的智能化处理是目前最合适、合理的监测方法,它的高效率.高精准性使气象防雷检测方面较之前得到了进一步的发展和提高。然而如今科技技术发展迅速,电子产品更新换代颇快,防雷智能化检测系统也需要保持随时更新的状态,将其进行完善,为气象防雷监测事业提供更大的方便。
参考文献
[1]乔金海;防雷装置监测工作的分析[J];城市建设理论研究;2011年第25期
[2]耿广华;住宅小区智能化系统防雷设计及施工[J];技术与市场;2011年第07期
[3]姚继乳;付春阳;气象防雷技术展望[J];城市建设理论研究2012年第39期
篇9
【关键词】变形监测 数据处理 多元回归分析 灰色系统理论
【中图分类号】G642 【文献标识码】A 【文章编号】1674-4810(2014)03-0051-02
变形监测就是利用测量仪器对变形体的变形现象进行持续观测、对变形体、变形性态进行分析和变形体变形的发展态势进行预测等的各项工作。变形监测的目的是通过监测数据的获取,对监测数据进行分析,从而找到变形产生的原因、对变形的预测预报,帮助人们认识、分析引起变形的因素和规律,可以进行有效预防、控制、处理,最终实现保障观测对象安全的目的。变形数据处理时常用的方法包括多元回归分析、灰色系统理论、变形预报模型等。
一 多元回归分析
统计分析方法是利用所观测的变形数据,变形观测数据与产生变形的外因间的相关性,建立多元回归关系的数学模型,从而揭示变形因素与变形数据间的关系。
回归分析方法是使用比较广泛的方法,回归分析分为线性与非线性回归两种。在实际工作中,许多非线性回归可以通过近似计算转化为线性回归。例如:y=a0+a1x+a2x2+…+anxn,可以通过变量变换z1=x、z2=x2、…、zn=xn,转化为y=a0+a1z1+a2z2+…+anzn的线性回归。
多元线性回归的数学模型用矩阵来表示为:
y=βx+ε (1)
式中:y为N维的变形观测量,y=(y1,y2,…,yN)T;x为可以精确测量或可控制的一般变量的观测值或它们的函数,是N×(P+1)阶的矩阵,它的形式为:
β是待求的参数向量,β=(β0,β1,…,βp)T;ε是服从正态分布的随机向量,ε=(ε1,ε2,…,εN)T。
由最小二乘原理得β的估值b为:
b=(xTx)-1xTy (2)
令C=(xTx)-1,则b=CxTy
将估值b代入(1)式中得回归方程为:
=bx (3)
在实际问题计算中,式子(1)只是对于问题初步分析的一种假设,故在求得回归方程后,还需对其进行假设检验,以检验所求得的估值是否是最有无偏估计量(最可靠值)。其中检验分两步,即回归方程显著性检验与回归系数显著性检验。上述的回归计算和显著性检验,都可以用计算软件来计算得到。
对于多个回归因子的回归计算,可以采用逐步回归计算。逐步回归计算是建立在F检验基础上的逐个接纳显著因子进入回归方程。当回归方程接纳一个因子后,可能使得原来回归方程中的某个因子变得不显著,需要从回归方程中剔除。就这样反复进行接纳新的因子,剔除不显著的因子,最后得到所需要的最佳的回归方程。逐步回归是不断接纳新的因子,又不断的剔除不显著因子的优选过程。因此,经过逐步回归得到的回归方程所包含的影响因子数目最小,而且是回归方程拟合的最好的回归方法。通常此方法作为优选回归方程因子的计算,且此项计算需借助计算机的帮助才可完成。
二 灰色系统理论
灰色系统理论把时间序列看做是一定时空区域的灰色过程,认为无规则的离散的时空数列是潜在的有规则序列的一种表现,因而可通过变换将无规则的序列变化为有规则的序列。也就是说,灰色建模是对生成序列的建模(时序分析是对原始数据的建模)它对于原始数据没有大样本的要求,只需要原始数据有4个数据即可满足建模要求。即可建立灰色模型(Gray Model,即GM模型)。
在变形监测的预测中一般采用一阶单变量的微分方程,即GM(1,1)模型,其建模过程如下:
设原始非负数据x(0)={x(0)(1),x(0)(2),…,x(0)(n)},k=1,2,…,n。
(1)对原始序列做一次累加得光滑生成数列x(1)={x(1)(1),x(1)(2),…,x(1)(n)},其间满足关系式x(1)(k)=
(i);(2)GM(1,1)模型的动态微分方程
=b,其中,待定系数a为发展系数,b为灰色作用量。(3)
GM(1,1)模型x(0)(k)+az(1)(k)=b,写成矩阵形式 ,参数列阵为 ,根据最小二乘原理 ,求得a和b,则GM(1,1)离散
响应序列为: 。(4)累减还原为
预测值 。当k
模型拟合值,当k=n时,称 为模型滤波值,当k>
n时,称 为模型预测值。
三 时间序列预报模型
时间序列预报模型是20世纪初发展起来的一种数据处理方法,其基本思想是:当逐次观测的数据存在相关性时,未来的观测数值可以用已观测的数据来预测,可利用观测数值间的相关性建立数学模型来描述客观现象的动态特征,这种动态的数据处理方法,可以被应用于变形监测数据的分析。
对于正态、平稳、零均值的时间序列xi,按照多远线性回归的思想,可以获得数学模型:
a1~N(0, )为自回归滑动平均模型,at为白噪声序列。
当θi=0时,模型 称为n阶自回归模型。式中φi(i=1,2,…,n)为自回归参数。
当φi=0时,模型 称为m阶平滑平均模型。式中θi(i=1,2,…,n)为平滑平均参数。
四 结束语
现代科技的发展为变形监测数据分析与变形预报提供了广泛的研究方法。目前,变形监测正向多门学科交叉联合的边缘学科方向发展,成为相关学科的研究人员合作研究的领域。利用多学科、多方法的有机结合,进行综合分析和预测,是今后解决复杂的变形监测预报问题的研究方向。
参考文献
[1]侯建国、王腾军.变形监测理论与应用[M].北京:测绘出版社,2008
篇10
关键词:深基坑有限元监测变形对比研究
1工程概况
本文采用的工程实例为某周边环境极复杂的深基坑工程。根据现场条件,基坑西侧为正在运营的外科大楼,距基坑边距离为10m;北侧为正在使用的磁共振室,楼层数为4层,基础为深层搅拌桩复合地基,墙外边距基坑边距离为2.1m,该侧另有需保护的百年古建筑(砖木结构),距基坑边最小距离为5.6m,该建筑物对沉降特别敏感;东南侧为正在使用的居民用房,为一层砖结构,部分用泥砌筑,距基坑边最小距离为5.4m;西南侧为正在使用的伽玛刀治疗中心,距基坑边最小距离为13.7m。基坑开挖深度9.3m~13.8m,基坑平面图如图1所示。
图1基坑平面示意
2施工监测数据
结合设计要求及现场情况,必须做如下项目测试: ①土钉墙顶位移观测; ②支撑沉降监测; ③支护结构顶位移观测; ④支撑轴力监测; ⑤支护结构深层位移监测; ⑥周边建筑物沉降监测;⑦坑外地下水位监测;⑧基坑周围地表沉降。
2.1支护结构位移观测点
在支护结构圈梁顶打入或埋入钢制测钉,顶部露出地面约3~5 cm并磨成凸球面,周围用混凝土加固。
在支护桩体的12个部位各布置1只水平位移测孔(测斜管),管长以与桩长同长为准。依照设计位置,在桩体中预先埋设测斜管,测斜管的管口用封盖盖好并做好保护箱,避免测斜管被损坏。
2.2支撑轴力监测
在支撑体系中选择有代表性部位安装轴力计,一共埋设11个测点,每个测点上布设置2个轴力计,用频率计测读。
2.3邻近建筑物倾斜监测
该基坑施工影响的建筑物主要有磁共振室、需重点保护的古建筑、砖砌筑民房等建筑,我们将在上述建筑物的基础、墙面上预钻孔至结构层,将L型钢筋埋入,钢筋上部磨成凸球型,并浇注混凝土予以固定,如图2所示。
2.4基坑周围地表沉降观测
在观测点处打入或埋入钢制测钉,顶部露出地面约3~5 cm并磨成凸球面,见图3。
2.5地下水位的监测
1)测点埋设:测点埋设采用地质钻机钻直径89 mm孔,水位孔的深度在最低设计水位之下(坑外孔深同基底)。成孔后放入裹有滤网的水流入。水位管用55 mm的PVC塑料管作滤管,管底加盖密封,防止泥砂进入管中。下部留出0.5~1.0 m深的沉淀管(不打孔),用来沉积滤水段带入的泥砂。中部管壁周围钻6~8列6 mm孔,纵向间距5~10 cm,相邻两列的孔交错排列,呈梅花形布置。管壁外包扎滤网或土工布作为过滤层,上部再留出0.5~2.0 m不打孔作为管口段,以保证封口质量(如图4)。
2)量测及计算:通过水准测量测出孔口高程H,将探头沿孔套管缓慢放下,当测头接触水面时,蜂鸣器响,读取测尺读数h,则地下水位。两次观测地下水位之差即水位的升降数值。
3实测数据与计算数据的对比
3.1连续墙位移对比分析
现在从1-1剖面(见图1)分析支护结构的位移规律,表1给出了有限元计算结果和实测值的比较。
从表1可以看出,有限元计算得到的结果与实测位移有一定的差异。其中工况一计算得的位移值比实测的小很多,其可能的原因是施工过程中,施工方在施工完支护结构之后,进行了浅层土体的开挖,并进行了圈梁的施工。这样在架设第一道支撑之前停滞了很长一段时间,造成了支护结构持续变形的积累,使得在第一道支撑浇筑时支护结构的位移已经变大,从而造成了实测值比计算值大一些的结果。
工况二、三计算的结果与实测值吻合得较好,因为在实际施工过程中该阶段施工较为顺利。工况四中,计算所得作用深度最大值比实测的深一些,这一现象的形成,说明了实际工程中的施工情况与计算工况有所不同。造成这一现象的原因可能是,在施工过程中,基坑周围的荷载堆积比较多,由于工地施工场地的限制,材料经常会放置在基坑周围,这些基坑周围的移动荷载会对支护结构的位移造成一定的影响,特别是对支护结构上面4~5 m部分的位移影响更大。因此,这有可能会造成支护结构在较浅的位置产生最大的位移,而不是计算所得的较深的位置。
从多个剖面的数值模拟来看,位移曲线的变化规律还是比较一致的。由于开挖的基坑宽度不同以及浇筑支撑的不同,位移曲线会略有不同。大体上在地面以下7~8 m处出现最大位移,最大位移值与基坑开挖深度及基坑开挖宽度有关,基坑开挖深度相同,开挖的宽度越大,最大位移值也会越大。如1-1剖面开挖的宽度44 m,最大位移值为7.361 mm;2-2剖面开挖宽度80.546 m,最大位移值10.159 mm。当然位移值的大小也与基坑周围的土质情况有关。
基坑支护结构最大侧移为基坑开挖深度的0.1%~0.6%,平均值为0.3%。连续墙侧向变形形态通常为深层凸鼓形,支护结构顶部和底部侧向变形较小,支护结构最大侧移点深度一般位于开挖面以上1.5 m至开挖面以下7 m范围。
3.2地表沉降分析
对于数值计算来说,对比多个剖面的地表沉降,可以看出沉降变化的总体趋势是一致的。在基坑开挖的初期,基坑附近的土体有轻微的隆起,但在实测中很难有所反应。主要是因为施工的影响,基坑周围环境比较复杂,堆积物也比较多,很难体现土体的隆起。随着基坑的开挖,在基坑周边的土体会沉降较大。本文所采用的实例中,基坑开挖14 m对基坑边10 m以内的范围影响较大,10 m外的沉降比较均匀,沉降值与实测值吻合比较好。有差异的测点有可能是在实际施工过程中地面车辆以及堆载引起的误差。
3.3支撑轴力的比较分析
对比三个剖面的支撑轴力,变化规律是比较一致的。表2所示为3-3剖面支撑轴力对比结果。
从表2的对比可以看出,实测值与计算值还是比较吻合的。第一、二道支撑在架设后轴力逐渐增大,在基坑开挖至设计标高后,支撑轴力达到最大值。在基坑开挖初期,一般计算的轴力小于实测值,可能是支撑在浇筑初期还没充分发挥其作用,随着基坑内土体的开挖支撑轴力逐渐发挥。在基坑开挖深度较深时,实测值明显比计算值要大,这是因为实际开挖阶段基坑周围的情况比较复杂,对支撑轴力影响比较大,在数值模拟中很难全面考虑。
4结论
本基坑工程地下水丰富,上部土体强度低,以支护桩做为围护结构,采用两道混凝土支撑,形成了刚度较大的支护体系。数值模拟结果表明,支护结构位移、支撑轴力、地表位移等满足设计的要求,且整体效果较好。
总体来看,用Plaxis模拟基坑开挖的过程,能够基本反应基坑变形、破坏的规律,但基坑在实际施工过程中,基坑的变形、支撑轴力等受基坑周围的环境影响很大。基坑周围的过度堆载,基坑边车辆的运行、停放,都可能导致地表沉降增大,支护结构位移变大,支撑轴力变大。如果堆载不对称,还有可能导致基坑两侧向一个方向倾斜的现象,对基坑的稳定十分不利。施工过程中由于各种原因的延期施工,对已开挖的基坑十分不利,由于停滞时间过长会造成位移的积累,对施工安全不利。
参考文献
[1]刘建航,候学渊.基础工程手册[M].北京:中国建筑工业出版社,1997:159-162.
[2]唐世强.地铁深基坑支护体系内力及变形规律分析[J].铁道建筑,2008(11):35-39.
[3]奚光宇.北京地铁明挖基坑的监控量测[J].铁道建筑,2010(12):53-56.
[4]朱伯芳.有限单元法原理及应用[M].北京:水利电力出版社,1979.
[5]陈希哲.土力学地基基础[M].北京:清华大学出版社,1989.