数据中心机房方案范文

时间:2023-04-03 23:22:57

导语:如何才能写好一篇数据中心机房方案,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。

数据中心机房方案

篇1

关键词:数据中心、电力输配系统、不间断电源、制冷机房、空调末端系统、节能

一、概述

随着社会电子信息化程度的提高,企业的业务和管理朝着电子化和网络化的方向快速发展,在这种背景下,通信运营商的IDC业务得到了迅速的发展。随着电子信息及制造技术的飞速提升,数据中心机房的设备密集度大大提高,耗电巨大,发热量更加集中,机房局部过热现象增多,机房内单位面积空调冷负荷急剧增加,由此引来的主设备运行故障和能耗逐年上升,甚至成为了制约通信业务发展的一大瓶颈。同时,具有重要战略地位及发展潜力数据中心作为通信行业高能耗的代表也成为了大家关注的焦点,国内外各大运营商及相关研究机构都陆续开展了一系列数据中心节能试点改造,取得了良好效果。

本文主要从电源(包括电力输配系统、交直流不间断电源等)和空调(包括制冷机房、空调末端系统等)两大方面对数据中心能耗现状及问题进行梳理,结合某运营商数据中心建设及改造案例,对数据中心机房提出系统的节能方案建议。

二、数据中心能耗现状

国内某运营商的调研数据显示:数据中心能耗呈逐年上升趋势,2009年比2008年增长了约20%左右,到2010年底,数据中心占该运营商全国网络运营总能耗的比例达到了13%(见图1),特别是在一些IDC业务发展较好的大城市,该比例远远超出了全国平均水平,比如:上海市2010年数据中心能耗占比超过了25%,北京市则达到了50%以上。

图2-1 某运营商2010年网络运营能耗结构

从机楼的角度来看,数据中心能耗主要由三个部分构成:数据通信设备、空调(制冷机房、空调末端系统)及电源(电力输配系统、交直流不间断电源),其能耗占比情况见图2。

图2-2 数据中心能耗构成

(数据来源:劳伦斯伯克利国家实验室)

上述数据显示,数据通信设备的能耗占比最大。但某种程度上来说,主设备的节能环节是运营商无法真正掌握的。因此,运营商在尽量采购节能减排主产品的同时,需不断加大力度,开展对数据中心空调及电源系统的节能建设及技术改造,以期实现节能降耗。

三、数据中心电源系统节能研究

一般来说,数据中心电源系统包括:外电引入、变压器、发电机、电动机、交流不间断电源系统、直流不间断电源系统、照明系统及输配电线路等。由于数据中心功率密度的提高,所消耗的电功率增加,在电力各环节能量损耗亦随之增大,因此,电源系统各环节均需采取节能措施。

一)、外电引入、变压器、发电机及电动机系统节能研究

数据中心外电、变压器、发电机及电动机等环节的现状、问题及节能建议见下表:

外电引入 变压器及发电机 电动机

现状及问题 目前数据中心所在机楼的外电引入多采用两回路互为备用的10kV专线。相比更高电压等级的外电引入,外电容量受到限制,线路损耗难以降低。 目前,不少机楼的变压器实际使用负荷率较低,实际用电量与设计规划用电量存在较大差距。 数据中心的电动机类负载主要是风机和水泵,且多为Y系列,其效能较新型YX2系列电动机低;电动机未采用变频调速等节能措施。

技术发展趋势及建议 发展趋势:1.20kV电压已列入国家标准电压。2.已经具备全方位的成熟产品,包括20/0.38kV变压器及相应电压等级的电缆。3.相比10kV供电系统,20kV系统在相同导线截面条件下,增加了近一倍供电能力;相同供电容量的前提下,降低电网损耗达75%,并节省外线建设投资约40%。当前,国内外电气行业在确定供电电压等级均以节能为导向的趋势,因此,如条件许可,建议采用20kV或更高等级的外电供电。 1.用电负荷合理分类及精细计算,应科学的考虑设备运行的需用系数和同时系数,合理配置变压器及应急发电机组容量,降低设备的初期投资及运行损耗。2.应根据实际情况灵活配置变压器,变压器采用2N配置时,每台变压器负荷率不大于50%;变压器采用N配置时,每台变压器负荷率不大于70%;变压器应采用D,yn11接线方式。3.选用低损耗、节能环保、具有抗谐波能力及较高过载能力的变压器产品;选用具有较高过载能力及较强带非线性负载的能力的产品,选用具有一定抗谐波能力的发电机组。4.供电距离长及功率较大,有并机运行需求时,宜采用10kV高压柴油发电机。5.通过加强谐波治理,提高变压器及发电机的有效容量。 发展趋势:1.660V电压已列入国家标准电压。2.10/0.66kV变压器、660V电动机、660V电缆、母线及开关等相关产品的标准化生产。3.变频控制技术发展成熟及广泛应用。建议:1.采用高效率新一代的节能电机YX2系列;采取电动机变频调速等节能措施。2.提高电动机供电电压等级: (1)较大容量的电动机(如:耗电较大的水泵、空调冷水机组以及空调末端风柜),建议采用660V电压供电。 (2)大容量的电动机,单台大于550kW的电动机(含电制冷机组),应当采用10kV(6kV)电源供电;单台大于350kW的电动机(含电制冷机组),宜采用10kV(6kV)电源供电。

某运营商案例 某运营商某省的IDC数据中心工程采用两路20KV专线电源,正常供电时,两段母线分段运行,两路电源同时供电,运行效果良好。 某运营商某数据中心对部分较大容量的电动机(约30多台空调主机、水泵等)采用660V供电,总功率达2500kW。

优点如下:大量节省配电开关及配电导线的投资;线路损耗仅为380V电压供电的33%,节能效果明显。该数据中心对数台大容量电动机(单台达1000kW以上的冷水机组)采用10kV高压供电。优点如下:减少了低压冷水机组所需的10/0.4kV变压器以及大容量的低压配电开关及控制设备;节省占地面积及一次性投资;减少年运行损耗,节能效果明显。

表3-1数据中心外电引入、变压器、发电机及电动机系统节能研究

二)、照明系统及输配电线路节能研究

数据中心照明及输配电线路环节的现状、问题及节能建议见下表:

照明 输配电线路

现状及问题 多数数据中心长期开启全部灯具,部分机房照度偏高;多采用T8荧光灯,效率不高;灯具开关缺乏智能控制。 目前多数在用的数据中心机楼的高低压配电房及发电机房、电力电池室等远离数据主设备及空调等负荷中心区域,输配电线路长,线路损耗较大。

建议 1.推广使用高效光源:优选细管荧光灯和紧凑型荧光灯,积极推广高压钠灯和金属卤化物灯。2.设置合理的照度,照度要求较高的场所采用混合照明。3.采取智能、合理的照明控制方案。 1.为减少投资并降低线路运行损耗:高低压配电室、变压器室、电力电池室等应采用贴近用电负荷的布局,以缩短输配电线路的距离;发电机房、低压配电房与电力电池室应尽量靠近,减少配电级数并缩短配电线路;楼层高的机房应分层安装变压器,面积大的机房应在中心位置设置变压器,以减少输配电线路长度。2.选用低损耗的新型输配电母线及电缆。

表3-2 数据中心照明及输配电线路节能研究

三)、交、直流不间断电源系统节能研究

1. 传统交流不间断电源(塔式UPS)系统应用现状

当前,数据中心主设备一般要求交流电源输入,多采用传统的交流UPS系统供电模式,即:UPS系统将交流市电整流逆变后,为数据主设备提供220/380V的交流不间断电源。其应用现状总结如下:

(1)传统UPS系统多采用N+1配置,等级较高的数据中心机房采用2(N+1)配置。

(2).部分在网的早期UPS主机采用6脉冲整流,近年来基本都采用12脉冲整流。

(3)为了限制UPS系统产生的谐波,部分UPS系统配置了有源滤波器。

(4)蓄电池后备时间大多按单机满载30分钟配置,有的数据中心配置达到了单机满载1小时。

2. 传统交流不间断电源系统存在的问题

随着数据中心高能耗问题的凸显以及对设备运行可靠性要求的不断提高,传统交流UPS供电模式存在以下一些不足:

(1)采用了冗余并机技术,无论是N+1还是2(N+1)系统,在正常运行时,UPS主机的负载率均较低,再考虑到系统配置容量较实际偏大,使得系统的负载率更低,未在最佳效率点附近运行,系统损耗较大。

传统UPS系统的负载率与效率的大致关系见下图:

图3-1 负载率与效率关系图

经调查,很多大型数据中心机房的UPS系统单机负载率一般在10%至30%之间,大多数只有20%左右,在发展过程中的数据中心机房UPS单机负载率甚至更低,单机负载率10%不到的也占很大部分。

(2)目前仍有采用6脉冲整流的UPS在网运行,且没有采取相应的谐波处理措施,导致系统额外附加功率损耗大。部分UPS系统虽然配置了谐波过滤器用于谐波治理,但治理后实际运行情况没有进行相应跟踪,治理效果无法保证。

(3)交流UPS系统的后备蓄电池需经过UPS逆变后才能供给负载,一旦UPS本身出故障,仍会造成负载停电。

3.数据中心不间断电源系统发展趋势

(1)模块化交流不间断电源系统

为解决传统UPS系统由于负载率低导致的系统低效率及难以实现按需扩容等问题,“模块化”的概念被引入了交流UPS设计生产领域,出现了模块化交流UPS系统。一般来说,模块化UPS系统由机架、UPS功率模块、静态开关模块、显示通信模块以及电池组构成,系统组成模式与直流供电系统相似,可以方便实现N+X冗余,可根据实际负载量来配置合理的电源容量,其系统效率及供电可靠性相比传统UPS系统都得到了提升。

(2)高压直流不间断电源系统

直流供电方式早已得到了长期的、大规模的使用及验证,该方式将交流市电整流后与蓄电池并联,直接为通信设备提供直流电源,大大提高了供电可靠性和工作效率,谐波小,可以很方便的实现按需扩容。传统的直流供电系统的电压等级一般为-48V,大功耗的数据中心设备若采用-48V的供电电压,会使得配电线路的损耗大大增加,因此需要提高直流供电的电压等级,于是出现了“高压直流供电方式”。与传统交流UPS系统比较,高压直流供电系统的效率更高,系统损耗明显降低。一般来说,直流电源模块的效率一般都在93%以上,即使模块使用率在40%,效率也可以达到92%,而UPS系统的实际满载效率一般仅为85%以上,不超过90%。同时,高压直流供电系统还大大提高了不间断供电系统的可靠性。

4.建议

(1)优先考虑在新建以及改造使用年限长、耗电量大、故障率高的传统交流UPS系统的数据中心采用高压直流供电系统或模块化UPS系统。

(2)加强谐波治理。

5.某运营商案例

2010年某运营商先后在5个省建设了约23套高压直流系统,用以取代传统的UPS供电系统,建设规模及平均节电率情况见下表:

省份 系统数量(套) 相比传统UPS系统的平均节电率(%)

A 7 20%

B 2 15%

C 6 22%

D 4 12%(普通机房)

3 37%(数据中心)

E 1 29%

小结 23 22%

表3-3 某运营商高压直流系统建设情况

四、数据中心空调系统节能研究

1.数据中心空调系统节能建议

数据中心空调系统能耗主要包括制冷机房能耗和空调末端系统能耗,通过对某运营商多个数据中心空调系统的调研及分析,节能建议如下表:

制冷系统 末端系统

建议 1.小型机楼或单个机房宜采用单元式风冷型恒温恒湿专用空调;新建大型数据中心机楼建议采用集中式冷冻水型恒温恒湿专用空调系统,其冷冻水供回水温差宜尽量加大。2.冬季可利用水冷机组的室外冷却塔作为冷源也可积极利用自然冷源。3.机房布局应合理,预留空调设备安装空间,设备机柜的布置应考虑空调制冷能力,少量高热密度服务器可以考虑加装柜门冷却等分体式精确送风空调降温,高密度机架可采用液冷方式,避免出现局部过热;高低密度设备宜分区布局、分区制冷。4.可考虑配套独立的节能加湿装置,减少专用空调加湿能耗。5.宜采用变频或模块化冷水机组,保证空调高效运行;可通过变频技术提高冷冻泵冷却泵效率。6.冷水机组电功率超过500kW时,宜采用10kV高压制冷机组;冷冻泵冷却泵电功率超过200kW时,宜采用10kV或660V电动机。 1.设备机房和电池电力室等辅助房间间隔开,主机房采用恒温恒湿末端,辅助区域采用普通空调。2.机柜按照“背对背,面对面”排列,空调气流方向与列走线架平行,保证通畅;优化冷热气流路径,减少混合。3.可考虑采用封闭冷通道,实现精确送风,同时提高机房内空调设定温度,降低空调能耗。4.在有条件的情况下,使用有送、排风通道的机柜进行精确下送风,自然回风或冷通道设地板风口送风,管道回风的送风方式。5.架空地板高度应根据单机架功率大小进行合理规划;架空地板下只准通风,严禁布放线缆;架空地板下楼面和接触空调冷风的机房墙面建议采用不燃材料制造的隔热保温层,防止结露,减少冷量损失;新建架空地板下送风机房前期装机容量较小时,可考虑地板下做临时隔断,控制送风空间,减少冷量浪费。6.有条件的老机房还可考虑进行下送风上回风或精确定点送风改造。7.应选择高效风机及风柜,宜采用变频装置,降低能耗。

表4-1数据中心空调节能建议

2.某运营商空调系统节能案例

2010年该运营商组织了7个省,重点针对部分气流组织不好、有局部过热现象的数据中心进行了精确送风改造,节能情况如下表:

省份 平均节电率 投资回收期(月)

a 11% 31

b 15% 18

c 16% 30

d 20% 17

e 15% 24

f 11% 31

g 17% 39

平均值 15% 27

表4-2某运营商数据中心精确送风改造情况

除此之外,该运营商还先后在多个省份开展了数据中心空调系统综合节能改造工程,取得良好效果,如:

(1)大型数据中心采用集中式冷冻水型恒温恒湿专用空调,架空地板精确下送风,管道结合自然回风,气流组织合理,提高空调系统整体能效比,节能效果显著。

(2)合理设定机房温湿度,分区精确供冷,提高效率,达到节能目的。

(3)部分专用空调取消加湿功能或配置独立的加湿装置,减少空调加湿能耗。

(4)采用自适应控制系统,根据机房负荷变化,自动调整空调运行数量,实现节能。

(5)改造老数据中心机房上送风风口以达到节能效果。

五、结束语

数据中心的节能降耗涉及到多个方面,本文通过对国内某运营商数据中心的实例分析,从电力和空调两方面提出了节能降耗建议,目标是为了更高效的利用能源,建设节能环保的绿色数据中心。

参考文献

GB/T 156-2007《标准电压》,2007-04-30

GB 50052-2009《供配电系统设计规范》,2010-07-01施行

YD/T1051-2010《通信局(站)电源系统总技术要求》,2010-12-29

YDB037-2009《通信用240V直流供电系统技术要求》,2009-12-12

YD/T2165-2010《通信用模块化不间断电源》,2010-12-29

《中国电信节能技术与应用蓝皮书》V1.1,2008-12

《中国电信数据中心机房电源、空调环境设计规范(暂行)》,2005-12-01施行

篇2

泰科电子提供的安普布线 (AMP NETCONNECT)数据中心系统可以帮助用户达成其对性能、费用和环境影响方面的目标。高密度的光纤和铜缆模块化部件提供符合标准要求的性能,MPO光纤系统和MRJ21铜缆系统提高了新建数据中心的部署速度,同时可以大大缩短当前和未来数据中心基础设施改造和变更所需的时间。高性能的可重复利用、无铅化和符合Rosh规范的布线产品为用户带来绿色和环境友好等多种优势。

泰科电子安普布线

引领技术发展

泰科电子公司与全球一流的IT设备制造商在设备的研发阶段紧密合作,将先进的连接器技术应用于服务器、存储和网络设备。例如,泰科电子已经加入思科的技术发展伙伴计划。泰科电子与思科的合作意味着客户可以在其数据中心和商业通信网络中,依赖泰科电子的产品来连接和运行思科的硬件设备。安普布线系统正是利用了泰科电子的创新成果,并且这些只能从全球领先的无源连接器公司得到。我们在连接器设计和开发方面的经验给客户带来了连接技术的领先优势,安普布线系统利用了这些连接器尖端技术,为用户提供完整的端到端高性能连接和布线解决方案。客户采用领先其他竞争对手的这些数据中心布线解决方案,在其数据中心发展的各个阶段与我们一起参与和利用未来的先进技术。

泰科电子安普布线

引领标准发展

当前的标准制定驱动未来的新产品发展。泰科电子在过去的40多年里参与了众多全球和区域的标准组织。实际上,泰科电子是TIA-942数据中心标准委员会和EN50173数据中心基础设施标准的主席单位。泰科电子正努力推动IEEE、ISO/IEC、CENELEC和TIA等标准化组织制订未来的高速传输技术并在其中继续发挥着重要的领导作用。

关键的环境和经济效益

客户利用泰科电子安普布线的产品建设他们的绿色数据中心同时提升其环境保护的底线。以前信息系统更多关注设备级别的兼容性能,今天的重点已经转变为绿色行动。

泰科电子是率先采用多种绿色行动的公司。今天安普布线产品全面符合减少有害物质法案(RoHS) ,符合环保法规的MRJ21和MPOPTIMATE。布线系统利用其模块化设计和可重复利用的特点积极促进绿色目标的实现,同时大大降低了安装成本及运行中的维护和变更成本。

篇3

台达MCISBU总经理蔡文荫博士表示:“全球企业维运高度仰赖信息设备,使得数据中心成为企业运营的重要助力。若要确保企业持续营运,首先就得让数据中心的可靠度达到最高等级。”

藉此,台达于2011年就向业界隆重推出了其InfraSuite

数据中心解决方案,InfraSuite系统,是台达专为数据中心新推出的“网络关键物理基础设施架构(NCPI)”。该架构是一个整体的解决方案,具有可扩充性、可管理性、可维护性、高集成度、易于维护、标准化和模块化的组件中嵌入专业预测性维护服务,通过该服务可以降低总拥有成本并增加可用性,代表着现代数据中心所需的“行业最佳”的实践方案。

众所周知,在完整可靠的数据中心解决方案之中,供配电的核心部件UPS必须具备安全可靠、效率卓越,并且要能依照企业营运的成长需求扩充容量等特性。而此次台达全新推出的以模块架构设计的三相不间断电源——ModulonDPH,采用标准机柜式模块设计,可以根据功率需求将25kW直接提升到200kW。而DPH支持单一机柜的N+X冗余架构,无需另外加装UPS,所以能大幅降低建置成本和设备所需空间,并且能随着企业业务成长弹性增加容量,最大的容量扩充也可通过四台DPH并机实现。

蔡博士进一步指出:“除了UPS的可靠度与扩充性外,当考虑到运营成本时,能耗一直是最重要的因素。处理能耗的基本方式就是使用节能设备。”DPH是真正在线式双转换UPS,能为数据中心提供关键电源保护并达到卓越电力性能,在业界领先群雄。在30%负载和50%负载时,DPH的AC-AC整体效率分别为95%和96%,能节省至少6%的能耗,超越整机效率仅为92%的传统机型。DPH在发挥全功率(kVA=kW)时可以达到最大供电容量。相较于输出功率因数为0.8和0.9的系统,DPH的功率分别超出25%和11%,同时也省去UPS的降额问题,因此更能节省建置成本和营运费用。

除此之外,在数据中心的整体供配电方案上,DPH也提供了多样选择,既可以按照供电容量需求,在单一机柜整合电源分配,亦可以并联机柜的配置进行整合,完美结合电源保护和电源分配,让数据中心的电源管理更上一层楼。

篇4

会议首先由教育部教育管理信息中心展涛主任介绍了评审会有关情况,宣布了评审专家组成员名单,确定了专家组组长。各省依次介绍了本省的建设方案,并听取了专家点评。与会专家根据应用集成、运行环境、安全、教育CA等几个主要方面给出评审意见,为下一步各省具体建设工作提供指导。

省级教育数据中心建设是金教工程建设重要的一环,部领导对此项工作高度重视,国家也在财政上给予了大力的支持。同时,为保障其建设的规范性,日前教育部还印发了由教育管理信息中心编写的《省级教育数据中心建设指南》,指导地方数据中心建设。各省也对此项工作非常重视,力争此次难得的机遇,推动地方教育信息化工作的开展。

根据各省市建设方案的编写情况,预计今年9月中旬将完成全部省级教育数据中心建设方案的评审。评审要点具体如下。

一、应用集成部分

应有应用集成的概念和思路,并有具体应用集成的内容,以便教育部下发的业务信息系统能够顺利安装部署并集成运行。

1. 应包含的建设内容

* 教育管理综合服务门户的建设;

* 综合数据展示系统建设;

* 统一用户管理认证系统建设;

* 数据共享交换平台建设;

* 公共软件平台集成;

* 应用系统集成实施(门户集成、用户集成、数据展示集成、服务集成)。

2.应采购的产品及服务

* 综合门户系统平台;

* 统一用户认证管理系统;

* 数据共享交换平台;

* 目录服务;

* GIS地理信息系统;

* 商业智能及报表工具;

* ESB企业服务总线(含在应用支撑平台中下发);

* 内容管理软件(非结构化数据管理)。

二、运行环境部分

1.硬件环境能否满足国家教育管理信息系统在省级运行需要。硬件包括数据库服务器,Web应用、中间件服务器,存储,网络带宽等。

2.基础软件环境能否满足国家教育管理信息系统在省级运行需要,基础软件包括Oracle RAC、红旗Linux、Vmware、Weblogic,关注是否采购了,采购的数量够不够。

3.组织实施方面能否满足要求。包括是否考虑总集成、应用支撑服务平台、教育基础数据库的相关工作和预算,建设进度安排能否满足业务系统在省级部署的要求。2013年年底前满足部署中小学生学籍信息管理系统、学前教育管理信息系统、中职学生信息管理系统、学生资助信息管理系统、教师信息管理系统,2014年6月前满足所有系统部署。

三、安全部分

1.是否按照等级保护要求进行安全设计,关键点主要包括:

①是否明确数据中心基础环境的安全等级(三级);

②安全设计是否覆盖安全技术、安全管理两个层面,安全技术和管理措施是否满足等级保护三级要求;

2.是否按照教育部总体要求进行安全设计,关键点包括:

①网络整体架构设计是否合理,是否为国家教育管理信息系统设置独立安全区域;

②为保障国家、省两级的互联互通及安全工作的统一部署,建设方案中安全运行维护管理系统、应用安全监测与预警平台、安全工作管理平台、数据存储加密服务平台(原名:密码安全服务平台)、IPSec VPN和SSL VPN等关键安全产品是否按照教育部要求统一技术配置。

3.教育部要求对安全咨询设计工作单独立(子)项,并在系统建设完成后进行等级保护测评,需要关注建设方案中是否为安全咨询服务及等级保护测评两项工作做出预算。

四、教育CA部分

1.在建设方案的需求分析中,应对本省的教育电子证书应用规模进行初步的分析;

2.建设内容应明确“教育数字认证省级服务系统”的建设任务,在后续建设方案中,作为“安全技术体系”的建设内容之一,与物理安全、网络安全、安全监管等技术体系的建设在同一级别的标题进行阐述;

3.机房建设内容中应增加“教育数字认证省级服务系统”专用机房区域的建设内容。“教育数字认证省级服务系统”的机房区域面积不小于30平方米,与其他机房区域通过指纹+IC卡门禁进行隔离,部署有24小时视频监控系统;

4.“教育数字认证省级服务系统”的建设,采用“二级部署”模式,由教育部统一配发的“教育CA二级服务系统”软件;各省按系统建设要求,采购系统建设所需的硬件设备(包括密码机、屏蔽机柜、服务器等)、系统软件(操作系统、数据库、LDAP等);

篇5

【关键词】UDC 融合 数据中心 分布式架构

1 概述

纵观电信运营商近几年的网络演进趋势,各大电信运营商正逐步向全业务纵深发展,在PSTN、GSM网络、IP宽带接入网络的基础上,涌现了3G、TD、WLAN和IMS等新兴网络,并产生了一系列的新业务。这些新网络、新业务的发展,必将引起单用户数据量、用户数据的属性、用户数据总量的突增。受限于早期的技术水平和网络结构,电信运营商不同网络的用户数据一直被分别存储在不同的实体中,对每种新兴网络均设置了专用的用户数据中心。这种相互独立的用户数据储存会导致用户数据不统一且难以管理,为种类繁多的业务发展带来一系列挑战,从而进一步增加了电信运营商的资本支出(CAPEX)和运营支出(OPEX)。

为了解决网络中用户数据分散、访问接口多、数据冗余、数据不一致等问题,用户数据融合(UDC,User Data Convergence)作为用户数据管理(SDM,Subscriber Data Management)的替代技术逐渐被各大运营商们所公认,并进行部署及应用。

2 UDC技术介绍

UDC定义为对同一用户的多个异构网络中的多个业务提供统一的数据存储和访问服务,是用户数据管理方面的主流发展趋势,对用户数据管理平台进行了深层次的架构上的变革。

用户数据融合的关键机制是将用户数据存储和业务处理逻辑分离开来。后端用户数据库通过统一、可扩展的数据模型,提供基于用户各种数据的存储和访问;而前端负责处理来自服务提供网络的信令逻辑、业务请求等。

用户数据融合可能包括与特定用户相关的业务数据,如用户特定业务逻辑、业务数据等;还可能包括用户终端上的用户数据,如个人通信录等。同时,用户数据融合的部署方案应该具备平滑演进、融合未来可能出现的用户数据的能力。

UDC架构很好地顺应了运营商对降低CAPEX/OPEX、高效运营的需求。融合的用户数据库可以数据中心的形式在各个运营商网络集中部署,前端靠近运营商网络的信令转接点,处理用户业务逻辑。

3 融合用户数据中心部署方案

3.1 分布式HLR系统架构

UDC在作HLR使用时称为分布式HLR,与集中式HLR的主要区别在于信令处理设备和数据存储设备的分离。UDC主要由以下三部分组成:

(1)前端设备(FE)

核心处理模块:负责MAP、Diameter等信令消息的高层协议处理功能;

信令模块:负责MAP等七号信令以及LTE HSS的Diameter等信令消息的底层协议处理功能;

E1中继模块:用于直联、准直联TDM七号信令链路接口;

IP模块:用于IP信令及Diameter信令的接口,连接IP承载网络。

(2)后端设备(BE)

AUC功能模块:生成用户鉴权数据等;

中央数据库:存储用户数据,包括用户签约信息等。

(3)其它公共设备

交换矩阵:TDM交换总线、数据交换总线;

同步:时钟同步、时间同步;

此外,还有BOSS接口、网管接口、输入输出设备(I/O设备)、维护终端等。

分布式HLR的技术本质是用分布式软件系统提供全面的HLR/AUC功能。除了满足集中式HLR的各种技术要求之外,分布式HLR系统整体还具备以下技术特性:

(1)自身是一个由多种具有不同功能的设备组成的网络,其中设备可以异地分布设置;

(2)系统网络内部设备通信全部通过IP网络承载;

(3)自身具备地理容灾能力;

(4)具备大容量用户数据存储能力,并提供统一的用户数据管理;

(5)具备与大容量用户数据存储相匹配的业务处理和数据管理性能;

(6)存储容量、用户数据内容、业务处理能力及处理逻辑可以独立灵活在线扩展。

3.2 分布式HLR部署方案

分布式HLR的BE设备负责存储用户数据,FE设备负责信令处理。FE和BE可以同局址放置,也可以分离放置。当采取同局址放置方式时,FE和BE间的信令消息可通过机房内的网络设备连接;当采取分离放置方式时,FE和BE间的信令消息可通过IP承载网络或IP专线方式进行连接。

从部署方式来看,分布式HLR的BE设备应集中设置,减少网元数量,降低运营商的CAPEX/OPEX。各本地网可以通过设置返拉终端的方式,管理存放在BE中的本地用户数据。FE可采取与BE集中放置或分散各本地网设置。一般而言,BE和FE分离设置没有明显意义,还可能带来安全隐患和路由迂回,建议FE和BE同本地网放置。

分布式HLR部署方案如图1所示:

同时,针对未来电信网与互联网的融合趋势,现阶段在部署BE时,可考虑与IDC机房局址的融合。

3.3 分布式HLR承载方式

分布式HLR的承载方式主要是指FE与BE的数据访问、BE与BE之间的数据同步。分布式HLR设备应基于IP承载方式进行通信,FE与BE、BE与BE之间可以通过IP专线方式进行连接,也可通过运营商内部专用的IP承载网络进行连接。

考虑到MAP信令对于时延有较高要求,FE与BE之间若通过运营商内部专用的IP承载网络进行连接,IP承载网络应具有完善的网络架构以及接入的便利性、灵活性。IP承载网络的QoS必须满足MAP信令传送的需求。

篇6

【关键词】电信数据平台 Lambda架构 离线批处理 实时计算

1 引言

电信数据平台承载着电信网中各类用户数据的收集过滤,存储聚合,分析挖掘等功能,为企业对于用户的各种决策提供一定数据支撑。同时,电信数据平台也通过收集相关的信令数据,监控电信网的实际运行情况,是企业的核心系统之一。

传统电信数据平台由数据仓库和关系型数据库构成。数据采集端收集各种信息,如用户状态,用户位置,终端日志,网络状态等一系列异构的数据信息,并统一汇总到数据仓库。数据仓库中存储有全量信息,通过运行各种ETL程序,将庞大的数据仓库的信息分门别类转移到例如Oracle,DB2,Sybase等各类关系型数据库的各个表中。数据分析人员一般通过类似于商业智能的平台,通过撰写SQL语句,提取关系型数据库中的有用数据,来简单的分析各类问题。传统的电信数据平台,具有集中式,造价昂贵,部署和运维复杂等特点。在相当长一段时期内,由于单位时间生成的数据规模没有显著增加,没有到达数据库的使用瓶颈,传统的电信数据平台可以较好的应对各种需求。但随着单位时间内,采集端生成的数据飞速膨胀,每天生成数十亿乃至上百亿的各类异构数据需要存储和分析,传统的电信数据平台逐渐暴露了其不足之处。

传统的电信数据平台组织方案有以下两个方面的不足需要改进。首先是对于海量数据存储和查询较为困难。中心型的关系型数据库难以承受较高的用户查询负载,并且关系型数据库的成本开销较为昂贵,并不支持简单的线性扩展,若采用数据库分库和分表等辅助手段,则整个数据平台的复杂性有较大提升并且难以维护,所以传统的电信数据平台不能应对海量数据的存储和查询。第二点不足是实时性不足。一般而言,数据在数据仓库构建就需要很长的数据,由数据仓库经ETL程序归并到各类数据库同样耗时巨大且有很多冗余的处理,同时批处理系统分析数据的延时在小时级别以上,随着越来越多数据采集端的部署,数据产生速度越来越快,规模越来越大,实时对数据进行分析,并把结果进行可视化,对于实时监控的需求越来越重要,传统的电信数据平台延时较大,不能够适应数据实时性的要求。

针对以上分析的不足,本文提出一种基于Lambda架构的电信数据平台解决方案。Lambda架构,是Nathan Marz提出的一个实时大数据处理框架,具备高吞吐量和低延时的特点。本文结合Lambda架构,阐述了新型电信数据平台的基本构成和各层的职责,同时也具体介绍了各层使用的互联网开源大数据项目,描述了整个工作流程和数据流向,体现了新型电信数据平台具备的高吞吐量,低延时,高容错性的特点,解决了传统电信数据平台难以应对海量数据存储和查询,以及不能实时分析的不足。为电信网各数据平台在新需求下的转型提供了一个良好的尝试。

2 相关技术介绍

2.1 Lambda架构

Lambda架构是由Nathan Marz提出的一种大数据处理架构,结合了批处理计算和实时计算的特点,融合了不可变性,读写分离和复杂性隔离等一系列架构原则,具备高容错、低延时和可扩展等特点。一般分为批处理层,服务层和速度层,如图1所示。

批处理层对全量数据进行迭代计算,全量数据可以认为是一个不可变的持续增长的数据集。批处理层对于全量数据进行批处理计算,得到批处理视图,存储到服务层。服务层可以根据查询条件,对批处理视图的结果进行再次合并等处理。批处理层通过定时的重复批处理视图的更新,可以保证数据的高容错性,但是计算时间一般较长,延时较大,适用于全局规模的分析和预计算。批处理层一般由大数据批处理框架来实现。

服务层的任务是对于用户查询提供支持。它根据查询条件,随机访问视图,组合批处理视图和实时视图的结果,最终反馈给用户。服务层一般由NoSql数据库实现,但是为了降低复杂性,不允许对视图结果进行随机写操作,仅提供对于批处理视图和实时视图的加载和随机读取操作。

速度层负责实时计算增量数据。由于批处理计算比较耗时,随时而来的实时增量数据等不到有效计算,通过引入速度层解决这一问题。速度层只处理最近的数据,采用快速,增量的算法,通过实时计算,维护较小规模的实时视图,是对批处理视图更新是较高延时的一种补充。同时,由于全量数据计算的准确性,允许批处理视图最终覆盖实时视图。速度层一般由消息系统随时拉取新增的数据,并通过实时流式计算框架完成实时视图的生成。

2.2 Hadoop

Hadoop是一个处理海量数据的分布式系统基础架构。Hadoop 2.0架构由HDFS,YARN和MapReduce构成。HDFS是Hadoop中的分布式文件系统,它将海量数据存储于DataNode中,由NameNode维护各DataNode的元数据信息。YARN是Hadoop中的资源管理系统,监控每个节点,并协调MapReduce任务的分配。MapReduce是Hadoop中分布式数据处理框架,它将数据处理分为两个阶段,即Map和Reduce两个阶段,提供批处理并行计算的框架。对于Map阶段,对输入数据应用Map Function,执行结果为Key和Value的元组,相同Key的元组通过执行Reduce Function进行合并,最终生成结果。Hadoop有很丰富的其他组件支持各种需求的分析,如Pig,Hive,Impala等,这些高级工具可以自动将高级原语翻译为MapReduce任务执行,有更好的使用体验。本文,Hadoop作为Lambda架构中批处理层实现,全量数据存储在HDFS上,应用MapReduce计算,生成批处理视图。

3 结束语

本文结合Nathan Marz提出的Lambda架构和电信数据的特点,提出了基于Lambda架构的电信数据平台解决方案。本方案既可以通过全量数据的定期迭代计算,离线分析电信网收集的相关数据,生成批量视图,同时也可以通过流式计算框架,对增量数据进行实时分析,生成增量视图。同时,将批量视图和增量视图聚合,一起组合为查询服务,使得平台既有实时系统的吞吐量,有具备离线系统的完备性。

参考文I

[1]Marz N,Warren J.Big Data:Principles and best practices of scalable realtime data systems[M].Manning,2015.

[2]Chaudhri A B."Next Gen Hadoop:Gather around the campfire and I will tell you a good YARN"[J].

[3]Yang W,Liu X,Zhang L,et al.Big Data Real-Time Processing Based on Storm[J].2013,8(01):1784-1787.

篇7

【关键词】数据中心机房智能化系统设计应用

本文以我市某一数据中心机房智能化系统工程为例,阐述机房智能化系统的设计应用。

一、数据中心机房智能化系统设计及应用

1.1综合布线系统

综合布线系统是一种物理星形拓扑结构,系统中拥有较多的子系统,任何子系统均可以独立进入综合布线系统,并且,改变其中任一个子系统,均不会对其他子系统造成影响,因此,当数据中心机房增设新设备时,综合布线系统不需要有较大的变动。

该数据中心机房智能化系统的综合布线方案为采用光纤结合六类UTP布线,根据每个机房的需求,建立独立又统一的网络布线。每个机房拥有自己独立的外网区、内网区及存储区,其中,内网还设立有小机区、网络布线区及PC服务器区。与内网区一样,外网区和存储区均有自己独立的网络环境。

1.2门禁系统

根据每个机房的特点及要求,门禁系统用于控制重点机房及主要通道。主要通道允许机房管理者进出,外来闲杂人员不能擅自进出,而重点机房只允许工作人员出入,其他一切闲杂人员不得进入。门禁系统通过感应式读卡器施行,持卡者进出时需将读卡器靠近读卡机,若是合法卡则电锁会自动打开,若是非法卡则禁止相关人员访问。若暴力或其他非正常方式开门时,门禁系统会自动输出报警信号,并传至控制中西报警。该数据中心机房的门禁系统主要有以下功能:实时图文信息功能、时段管理功能、通道管理功能、开门管理功能、警报管理功能、卡片管理功能、实时监控功能、记录存贮功能、数据同步及自检功能、联动控制功能以及消防联动功能[1]。

1.3电视监控及报警系统

该数据中心机房共有6个机房,整体结构较为复杂,因此设计一套安全防范体系极为重要。电视监控系统常设置在机房各层的主要通道、走廊、房间和出入口,并根据环境的不同配备相应的终端监控设备,实现功能主要包括:①摄像头及入侵探测器监控各个机房出入口,一旦发现非法侵入,系统自动按照预设方式报警;②电视监控系统采用数字矩阵结合动态录像,将录像资料保存至硬盘;③将视频图像及报警信号同时接入监控室,实现图像显示;④采用16路视频信号大屏显示器,可同时呈现全部监控画面,也可切换16路监控画面[2]。

报警系统与机房电视监控系统相互独立又相互连接。以某一报警信号为例,出现异常情况时,报警信号经线路传送至报警主机,同时送至电视监控系统,监控系统一旦监测到图像画面异常,通过自身内部软件判断自动启动录像功能,与此同时,可在监控大屏幕上显示细致的监控画面。

1.4KVM管理系统

KVM管理系统可实现IP用户控制整个机房系统内PC服务器、网络设备以及小型机等。KVM管理系统联网后,监控中心可通过TCP/IP服务,对机房所有连接至系统的服务器进行统一管理。各个机房都有独立的KVM管理系统,每个KVM管理系统相互独立,可以完成对各自机房设备的操作管理。

1.5环境集中监控系统

机房中放置较多的精密仪器及设备,建立环境集中监控系统可确保设备的安全运行,同时有助于实时监控机房内环境变化情况。

二、数据中心机房智能化系统总功能

数据中心机房拥有一个总的智能化系统,各个机房又有独立的子系统,各个机房的监控最终集中于总监控中心。为了实现上述机房的功能,且考虑到安全可靠性,采用CM-DESK集中监控系统,该系统具有实时数据检测、自动报警、系统管理、日志及报表管理、历史曲线查询、网络化及可扩展等功能,通过这些功能将各机房子系统集成在这个统一的平台上,实现一体化、数据共享的操作应用,该集中监控系统能够监控各智能设备运行状态,报警、存储和处理故障,实现各个子系统数据流通,该集中监控系统故障自检、自动恢复功能及专家会诊功能能够减轻机房维护人员负担,最终在提高机房智能化系统可靠性的同时,提高了机房运行效率。

三、结语

不同于其他建筑的智能化设计,机房的智能化系统设计和应用更具有专业性,本文中该数据中心机房智能化系统的设计和应用融合了当前科技新技术,采用了较为先进的设备,为其它机房建设提供了参考,有极大的指导意义。

参考文献

篇8

据统计,目前,50%的数据中心在供电与制冷方面明显难以满足需要,刀片服务器的大量应用使这种现象更为普遍:一方面,数据中心的电力供给已经不足,另一方面,制冷有可能还导致大量的能源浪费。

传统的大型制冷系统解决机房中局部热点的方法是对整个机房进行制冷,机房整体的温度降到符合标准的水平,设备的温度也在安全范围之内,可以保证设备安全、稳定运行。但是,由于机房中设备密度不同,如果盲目给整个机房降温,会造成过度制冷,这样就浪费了电力资源,并因此增加额外支出。

供电规划

电力供应规划

数据中心的电力供应规划应在满足目前使用供电容量要求的同时充分考虑远期业务发展的扩容需求。条件允许时应当采用双路不同变电站高压市电配置自备发电机供电的方式,每路高压市电电源、发电机备用电源均应能够承担数据中心内的全部负荷。

数据中心的配电系统建设应充分考虑分期建设或后期逐步进行内部改造的特点,在设计时应考虑分步实施的可行性,避免后期施工对前期投产环境产生不良影响。

应急电源

为保证市电中断时,关键设备的供电不中断,数据中心应自备发电机作为备用电源。自备发电机设备容量、数量应按实际负载量及种类计算配置,同时还要考虑预留柴油发电机组未来扩容所需要的负荷。

低压配电系统

为了满足数据中心对供电系统的高可靠性要求,应采取必要的技术措施消除可能出现在UPS本身及输出端的各种故障隐患。行之有效的办法就是配置UPS“双总线输出”配送电系统。在变压器容量配置上还应考虑变压器负载100%冗余热备份,有条件时应考虑独立设置UPS专用变压器,同时考虑低压系统未来扩容的可能性。

考虑到经济性,系统的规划和设计应根据用电安全等级的不同合理配置UPS系统。先期应当考虑经济合理的冗余方式,后期根据实际需要最高可升级到2N并机双母线冗余(或更高安全等级)方式。

空调系统的供电应当采用独立双回路配电系统,同一区域内空调设备采用分组供电方式,避免大面积同时供电中断情况的发生,保证空调设备全年365天×24小时运转。

防雷接地

数据中心雷电防护应当符合《建筑物电子信息系统防雷设计规范》A级标准要求,应当具有完备的建筑避雷及引雷装置。良好的防雷接地可以使建筑免受雷电威胁,同时应进一步采取必要措施(如接地、室外控雷技术等),避免因雷电引发对IT 系统的二次破坏或干扰。

在变配电室低压母线上安装设置一级电涌保护器(SPD),UPS输入配电柜、UPS输出总柜、数据中心机房空调配电总柜应安装二级电涌保护器,PDU内应安装三级电涌保护器,所有其他与室外有关的配电设备和线路均应安装一级电涌保护器。

计算机系统接地要求采用共用接地系统。若有特殊要求时可留有安全保护地、防静电接地、交流工作地(零线接地)、直流逻辑地以及防雷接地端子。接地装置的设计应满足接地电阻值小于1欧姆的要求。

制冷规划

数据中心机房空调系统的目标是保证数据中心机房环境的温度、湿度和洁净度符合相关规范标准要求,为数据中心机房设备提供一个可靠的运行环境,保证设备不间断地安全运行,同时保证数据中心机房的正压,防止外界未经处理的空气或有害气体的渗入、烟或混合物滞留数据中心机房内部等问题,还要满足数据中心工作人员日常办公的要求。

制冷的根本目的是把IT机架产生的热量有效地带走。传统的针对机房的空调设备可以很好地保证均匀分布、低密度设备的散热,但也正是这种设计决定了其无法将当前高密度应用所产生的热空气彻底排出室外。气流组织的设计比制冷设备的选用更重要。为了解决高密度机架的制冷问题,采用机架制冷方案效果更好,可降低风扇运行功率,可防止冷、热气混合。

冷源、末端及管路配置

采用集中冷源时,如果存在分阶段增容的可能性,则在主管路上应考虑不停机泄水情况下增容施工的相应措施。采用集中冷源时,在数据中心机房内,冷冻水管道应采用环状管网,并且应根据系统冗余能力设置分段阀门便于检修和增容。

当数据中心机房空调系统冷源采用集中冷源且管网投入运行后,除原设计已考虑预留的集中冷源、系统管网、末端装置的增容容量外,超出部分的增容应采用分散冷源的方式。系统应当考虑冗余设计,根据冷源、末端装置的具体情况采用不少于N+1的设备备用方式。数据中心机房空调机组的冷源及冷却方式一般可分为风冷、水冷、双冷源机组等,一般采用大风量小焓差设计,根据需要配置电加湿器和电加热器。

气流组织

数据中心机房一般采用地板下送风、上部回风的气流组织方式,其送风通道和回风通道均可在需要的位置开设风口。对于下送风方式一般采用架空地板作为送风静压箱,架空地板的高度应根据负荷密度和数据中心机房面积综合确定。

地板送风口数量应能够保障每个服务器机架有足够的冷却风量。送风口位置应设置在服务器机架进风处。地板送风口风速应达到1.5~3.0米/秒。按相关规定,送风温差应控制在6℃~10℃。

新风、消防排烟

应当分别考虑数据中心各区域的洁净度要求,维持数据中心机房的正压,合理配置数据中心机房的新风系统。应当按照相应的消防规范考虑数据中心机房的防排烟系统和事故通风系统,根据规范设置相应的排烟分区和配置相应的防火阀。

当采用气体灭火系统时,应在进出数据中心机房的风管上设置气体消防动作启动时能够自动关闭的隔断风阀。在外墙或适当的隔墙处应当设置能够防止围护结构因气体释放导致超压破坏的泄压装置。

对于高密度数据中心在机房设施的制冷与供电环节,APC明确提出几点建议。

1.为数据中心指定高于实际需要的高密度将会不必要地减少 IT 设备的可用空间。有效地规划密度,只在需要时才部署高密度供电和制冷系统,这两点是至关重要的。

2.最好的方法是按照行或区域安装供电和制冷设备,在该行或区域的工作生命周期内不再对其进行变更或重新配置。人为错误是造成数据中心故障的主要原因,而对运行中的设备进行调整是造成停机的主要因素。

篇9

关键词:数据中心;网络;数据库服务器;虚拟化;桌面云;存储

为进一步扩大优质资源,做优、做强苏州大学附属第一医院,市委、市政府明确在我院平江分院现有地块东面新增100亩建设用地,从而实现了我院主体迁建的发展思路,并作为市政府实事工程。迁建后的新院占地约200亩,规划床位3000张。借此迁建之际,医院的信息化水平也将大步提升,从数据中心机房建设开始进行总体规划、分步实施,以建成高标准的数字化、智能型医院。

1数据中心机房总体设计

1.1需求分析 新院的数据中心机房未来将承担起新老两个院区的所有业务系统,新院区的建设将分为两期进行,即将结束的一期工程涵盖:门急诊、医技、住院,总面积约20万平方米,1200张床位,数据中心机房位于主楼之中。根据新院的总体思路、建设步骤、功能分布从而确定了数据中心机房的总体规划、分布实施的总体要求。具体需求如下:

1.1.1两地三中心 新老两个院区都有数据中心机房,目前数据中心机房位于老院,并且在不同建筑体有一个异地的灾备机房。接下来数据中心机主机房将迁于新院一期工程的主楼内,同时在未来的二期工程内将考虑一个容灾机房,老院将逐步建设成为一个异地灾备机房,三个地方将做到数据同步、互为灾备。

1.1.2核心业务不停机 医院业务7d 24h不间断运行,各个环节都离不开信息系统的支持,系统的停顿、宕机将会造成不可估量的损失。所以无论是硬件故障、系统维护、升级、扩容都要保证核心业务系统不停机。

1.1.3虚拟化 医院的业务系统越来越多,除传统的HIS、LIS、PACS、EMR外还有手术麻醉、心电网络、病理、HRP、体检、OA等大大小小几十个系统。各个异构信息系统都对服务器配置提出了要求,如果为这么多系统按传统方式分配物理服务器,这样不但不利于后期系统的扩展,更不利于后期硬件的运维,还有就是在有限的机房面积下不可能无限的扩展服务器,这就要求设计时考虑虚拟化,搭建医疗云数据中心。

1.1.4系统安全,随性信息化的不断发展,各种类型的终端(电脑、手机、平板、PDA、医疗设备)都能通过无线连接到医院网络,这样对医院网络的风险就不光有外网的终端,还有院内几千台终端的潜在威胁。这就要求数据中心机房及网络的设计能够避免各类威胁,保证核心系统安全、顺畅的运行。

1.2设计思路 数据中心机房的建设坚持以需求为导向,以应用为核心,站在整体规划的高度。依据以下几大原则。

1.2.1统一标准、统一设计、统一管理原则。数据中心平台采用开放式架构,选用标准化的接口和协议,考虑今后网络、服务器发展的可扩容、可升级。

1.2.2先进性原则。在满足功能的前提下,数据中心的设计在今后一段时间内保持一定的先进性。基础架构云建设是一个逐步完善、分步实施的过程,要按照高起点、高标准进行系统设计,采用最稳定、先进的技术和架构,保证系统建设的整体可延续性。

1.1.3安全性与稳定性原则。采用多种技术手段保证系统7d 24h稳定工作,核心服务器采用双机热备的结构。

1.1.4可扩展性原则。系统架构设计留存充分的余地,是分布式系统,以方便需要时能进行扩充,避免造成不必要的浪费。

1.3总体设计方案 总体架构设计如图1所示,网络采用三层架构,核心应用采用实体机架服务器做双机热备,其他应用采用虚拟化集群,同时部署一套桌面云统一管理所有门诊医生站。

2网络架构

新院大楼的网络分为三套,分别是内网(医疗业务,包括无线WIFI)、外网、设备网(视频监控、建筑设备监控)。三套网络物理隔离保证医院业务的安全和稳定运行。

2.1内网 内网承载着整个医院的关键业务系统,建设三层网络架构,即核心层、汇聚层和接入层,万兆主干,千兆到桌面,关键部位采用冗余架构,核心交换机和汇聚交换机双备份。

核心层,提供高速的三层交换骨干,各功能区的VLAN间的路由,安全访问策略。

汇聚层,根据新大楼的功能区域不同,分为门急诊汇聚、医技汇聚、住院汇聚。作为接入与核心层的分界,可完成对功能区域接入设备的汇聚,可完成功能区域内、功能区域之间的安全访问策略。

接入层,提供二层的网络接入,通过VLAN定义实现接入的隔离。

随着无线技术的发展,移动医疗的应用在院内也越来越多,移动护理、移动查房车、RFID标签、无线扫描枪、医疗设备数据无线传输等。因此无线的覆盖也包含在内网的建设中,为了保证内网的安全,采用隐藏SSID,终端MAC认证等手段。

2.2外网 外网部署采用扁平化的网络架构:核心层和接入层。外网承载非关键性业务,如:医院网站、预约挂号、微信、APP、支付宝等,此外还提供全院医护人员的上网需求。为了保证外网环境的安全,在对外出口处架设防火墙、IPS入侵防御、上网行为管理等网络安全设备。此外对于一些需要访问内网的应用,需指定服务器,指定端口,通过网闸连入内网。

2.3设备网 设备网关键是面向IP网络设计,图像占有大量带宽,为了不影响网络的正常运行,必须考虑网络的QoS,在双向、多向、定向传输的基础上可以控制流量、传输时间、传输帧率来控制所有数字数据,保证网络的安全、可靠、稳定。

3虚拟化

随着医疗信息系统的不断增加,数据中心的基础设施会因新增加的应用而需要更多的服务器和存储设备来支持,此外还有很多计划外的增加。这些设备有序和无序的增加会带来很多问题:①成本增加,服务器、存储数量增多,直接带来采购成本的增加,数据中心的运营成本增加。②运营管理复杂,服务器分布式部署,结构复杂,不便于日后的运营和管理,不能根据业务的需求做出灵活的响应。③资源利用率低,有些服务器的工作负载很重,而有些服务器的工作负载很轻,资源未被合理有效的利用。④物理空间有限,服务器的不断扩张,占用有限的数据中心宝贵空间。

针对上述问题,我们采用虚拟化方案来解决,这样能提高服务器的整合效率,简化了服务器管理的复杂性,保证了系统的高可用。此次数据中心的虚拟化包含两块:服务器虚拟化和桌面云。

3.1服务器虚拟化 服务器虚拟化是通过VMware vSphere云计算操作系统来实现。本次服务器虚拟化配置八台高性能刀片服务器作为云计算服务区的计算节点服务器集群,这八台刀片分别部署在两组模块化刀箱中。利用服务器集群强大的处理能力,生成多个虚拟服务器,而每个虚拟服务器,从功能、性能和操作方式上,等同于传统的单台物理服务器,这样大大提高了资源利用率,降低了成本,增强了系统的可用性,提高系统的灵活性和快速响应。通过这个虚拟化集群预计可以提供约80台服务器,今后如有扩充需求,只需在模块化刀箱中增加刀片服务器,再把刀片服务器加入到虚拟化集群中。

服务器虚拟化还能提供对上层应用的高可用性、安全性,主要是通过vSphere内置的应用程序服务以保证云服务运行在一个安全、可靠的平台之上。①计划内停机。通过VMware VMotion,在进行计划内服务器维护以致跨服务器的虚拟机实时迁移时,将不再需要为这些活动安排应用程序停机,从而不会对用户造成中断或导致服务丢失。②计划外停机。VMware High Availability(HA)提供高性价比的自动化重启,当发生硬件或操作系统故障时,几分钟内即可实现所有应用程序的重启。

3.2桌面云 医院信息化的发展也伴随着终端工作站的增加,这使得终端维护量也日益增加。通过桌面云就能把终端统一部署在数据中心云端,这样使终端的配置要求不在受限,使用区域不在受限,所有的计算、存储由云端服务器来完成,对于终端设备配置要求降低,这样节约了设备成本,所有终端统一、集中管理,减轻了日常运维工作。此外随着移动医疗的发展,Android、IOS等不同平台的终端设备涌现,通过桌面云可以做到在各种终端设备上实现医院现有应用,省去了大量的开发工作。与传统桌面相比,虚拟桌面具有如下显著特点:①高安全性。能够将数据从分散的终端移到数据中心内,数据访问集中化能够缓解数据泄漏、病毒等风险。②集中管理。由于桌面终端在数据中心,所有桌面的管理和配置都在数据中心进行,管理员可以在数据中心对所有桌面和应用进行统一配置和管理。例如系统升级、应用安装。③控制用户的访问权限。管理员可以根据用户的角色对用户进行访问能力的指派。

桌面云的部署采用循序渐进的方式,先期按照200个虚拟终端配置了桌面云服务器集群,这200个虚拟化终端覆盖所有门诊医生站。根据门诊医生站的基本配置,规划了6台存储型服务器组成的集群,他们之间通过2台万兆交换机互联。桌面云部署遇到最大的问题就是I/O瓶颈、启动风暴等问题,因为门诊医生站的开机时间、使用时间都比较集中。为了解决这些问题,采用了VMware Virtual SAN的方式。

VMware Virtual SAN是通过软件定义存储优化效率和利用率。普通的SAN架构,随着虚拟终端的数量不断增加,并且在同一时间段运行,会对存储的I/O读写带来压力,造成系统变慢,卡顿等现象。VMware Virtual SAN采用分布式架构,利用SSD实现高性能的读/写缓存,并利用分散在各台服务器上的硬盘实现数据的长期保存。

4存储

整个数据中心配置了主、备两套存储以满足所有的存储要求。两套存储配置相同,总共配置了三种规格的磁盘:SLC SSD盘、MLC SSD盘、大容量SAS盘,其中SLC SSD盘、MLC SSD盘作为高速盘,利用数据的自动分层技术,把活动数据块自动写入高速盘,非活动数据块自动挪入大容量SAS盘。

两套存储都分划分为3部分:①核心数据库。数据库服务器通过FC光纤通道连接至两套存储,通过软件和硬件层面的支持保证主、备两套存储的数据一致,并且通过持续的CDP快照,防止误更改、误删除等故障造成的数据丢失。通过策略的定制把这部分数据指定在1~2层(高速层)上。②服务器虚拟化磁盘。两组模块化刀箱通过iSCSI接口连接至两套存储,通过Live volume技术和持续的CDP快照保证数据的双份和不丢失。③文件数据。大量的PACS文件数据通过两台互备的Windows文件服务器连接至存储,文件数据分散在两套存储中,保证一套存储故障不会影响文件数据的存储。

5总结

数据中心机房的建设是一个长期的过程,目前新院数据中心机房的建设已经进入完成,接下来将进行应用系统部署,数据迁移,全院网络的调试,在这过程中还需要对数据中心机房的硬件设备配置进行调整。后续还将进行异地灾备机房的建设,在这过程中需吸取之前的经验教训,不断引入先进的技术,从而保证两地三中心格局的最终实现。

参考文献:

[1]周海波,潘峰,黄.基于虚拟化的医院数据中心资源整合平台构建[J].中国数字医学,2014,9(6):58-61.

[2]朱刘松,许媛,高艳.基于VMware虚拟化技术构建新一代医院数据中心[J].中国数字医学,2013,8(11):92-94.

[3]周建文,王安莉.VMware虚拟平台在医院信息化中应用研究[J].信息安全与技术,2015,2:82-83.

[4]张贝贝.微软SQL Server 2014[J].软件和信息服务,2014,5:59-59.

篇10

【关键词】数据中心;机房建设;校园网

随着教育信息化的深化应用,大部分高校已经基本完成了依托于校园网的数字化校园建设,并部署了一定规模的各类教学及应用系统,取得了良好的应用效果。然而,随着院校中各种应用需求和校园网设备的不断增加,传统的校园网数据中心正面临着日益严峻的挑战,甚至已经无法满足现代数据中心高效、节能、敏捷、易维护的需求。

1.传统数据中心机房的局限性

传统数据中心机房往往存在着较大的局限性,具体表现在以下几个方面[1]:

(1)机房能耗高。随着用电设备的增加,设备运转的电力消耗和制冷运维等成本投入越来越高。据统计,我国数据中心机房电源的使用效率(PUE)的平均值在2.5以上,这意味着IT设备每消耗1kwh电,就有多达1.5kWh的电能被机房设施消耗掉[2],数据中心已经成为新的电老虎。

(2)信息安全性较差。传统中心机房通常采用了数据集中存放方式,并且备份容灾措施也不够万寿,导致了较高的信息安全风险,严重威胁着数字化校园中各种数据的安全性和可靠性。

(3)中心机房条件简陋。传统机房由于设计过时,普遍存在局部过热的现象,容易导致服务器和其他网络设备出现故障,影响网络运行的稳定性。

(4)维护管理水平较低。数据中心存在着大量的服务器、网络设备和各种应用系统,并且仍在不断增加,层次化和分期建设等原因更是增加了维护工作的复杂性。

(5)机房设计缺乏灵活性。由于机房建设缺乏规范性和系统性,导致基础架构僵化隔离,有时甚至是一点微小的局部调整都会牵扯到复杂的调整,缺乏可扩展性和灵活性。

基于上述原因,建设一个具有高可信性、高可用性和易维护性的新一代绿色节能数据中心,已成为院校在信息化建设和发展中亟待解决的首要问题。

2.某校数据中心机房概况

某院校校园网建成已有十余年时间,随着网络规模的不断扩展,各种网络应用和设备有较大幅度的增加,然而由于受地理位置、建设成本等多种客观条件限制,数据中心机房不能满足业务发展需求的矛盾越来越突出。

(1)基础设施重复建设。由于校园网建设初期缺乏系统规划,该校存在校园网、图书馆、后勤财务中心等多个中心机房,基础设施重复建设,需要单独配置、管理和维护多个机房的电源、空调、安防系统等基础设施,造成较大的资源浪费,也带来了较大的维护难度。

(2)供配电系统受限。受配电系统线路和设备限制,供电系统后期扩容升级幅度受限,难以满足信息机房不断增长的电力需求。

(3)制冷系统可靠性低。多个中心机房缺乏专业空调制冷设备,均采用较为落后的柜机空调制冷,并且缺乏备份制冷设备。当空调设备发生故障时,机房由于温度过高必须暂停运行,严重影响了网络运行的稳定性、可靠性和安全性。

(4)运维管理难度大。由于机房建成使用时间长,监控技术手段相对落后,难以实现机房的智能化管理和监控。此外,由于电源线路、网络综合布线等基础设施设计不合理,导致后期建设和维护较为困难。

(5)高能耗低效率问题。由于多个机房分散在不同楼宇,每个机房都需要有各自的配电、空调和安防系统,重复投资建设,电力消耗过大,不符合“高效节能、低碳环保”的要求。

3.机房改造实践

为了提高数字化校园运行的安全性、稳定性和可靠性,降低运维成本,实现机房智能化管理,建设高度自动化的无人值守型智能机房,并考虑到校园网未来10年的发展需求,对校园网数据中心机房进行了改造升级建设。建设目标是建设一个计算机网络系统稳定可靠运行的环境,以满足网络设备和工作人员对温度、湿度、洁净度、电磁场强度、屏蔽、防漏、电源质量、接地和安保等方面的要求。改造后的数据信息中心含装修工程、空调系统、强电系统、弱电系统和消防系统等部分[3]。

3.1 装修工程

根据实际需求将机房划分为三个区域:主机房区、配电区和监控区。其中主机房区主要用于存放机柜以及服务器、存储设备、空调设备;配电区安装强电配电柜、UPS稳压电源及电池柜等供电设施;监控区主要用于机房监控、办公和值班。

主机房区、配电区和监控区吊顶距地面防静电地板3000mm,为方便形成气流组织,采用格栅吊顶。吊顶先内预先刷防尘漆,并对天花用橡塑棉做好保温,地面铺设优质防静电活动地板,照明采用节能型嵌入式LED节能灯管格栅灯。墙面全部安装彩钢板,其中主机房墙面先铺设保温棉,再铺彩钢板,能达到一定的电磁屏蔽和防静电效果。

3.2 电气工程

机房供配电系统采用三相五线制供电系统,主要由两部分组成:设备供电系统及机房辅助供电系统,配备独立的配电柜分别对机房网络设备、动力、照明配电。网络设备用电由UPS配电柜控制,辅助设备用电由市电配电柜控制。UPS电池按断电三小时考虑,即电池容量能够保证停电三小时设备正常供电。整个电气工程系统框图如图1所示。

3.3 弱电工程

数据中心机房布线采用集中式配线,分为主配线区、网络交换机区、服务器区、存储区。所有机柜中的通信线缆均汇集到集中配线区,通过主配线区的配线设备进行配线管理。其优点是结构简单,端口利用率高,交换设备数量少,单点故障少,总体建设成本低。布线采用机柜上方桥架走线,从广域网进线机柜到主配线机柜,再从主配线架到每一个机柜。每个机柜中均安装一个24口光纤配线架,两个24口RJ45六类配线架。机房内放置16个标准机柜,其规格为600×1100×2000mm,前后网孔门,钢板厚度大于两毫米。

3.4 安防监控系统

安防监控系统包括UPS监控、配电监控、温湿度监测、漏水检测、门禁、视频监控、精密空调监控、排风机等监控子系统,通过集中监控系统有机地集成在一起,能够对机房各点和机柜各部位的供电、运行及物理环境进行7×24小时实时监控监测,如图2所示。当有异常情况发生时,可通过声光、短信、电话、语音、邮件等方式及时报警,并将报警、事件、信号量历史数据及管理员操作日志等自动记录到数据库中。

3.5 消防工程

主机房区采用无管网七氟丙烷全淹没式灭火装置,安装智能烟雾和温度感应报警器,整个灭火系统可采用自动、手动及机械应急操作三种控制方式。当防护区内烟雾及温度感应器同时报警时,火灾自动报警控制器发出信号,启动声光报警器,并关闭空调,切断非消防电源,按设定时间延时后启动钢瓶阀,释放灭火气体完成灭火任务。管理人员也可通过紧急启停按钮在防护区外完成对灭火系统的紧急启停。

3.6 空调系统

主机房内拆除原有柜式空调,增加两台机房专用恒温恒湿精密空调机,其中一台作为备用机。精密空调系统采用活动地板下送风、上回风方式,有利于机房内发热量大的设备散热。新风系统采用热交换式新风换气机,新风经室内排风热交换后送入室内,排风量为新风量的70%。采用活动地板下送风时,出口风速不大于3m/s,送风气流不直对工作人员。

3.7 KVM系统

为了方便快捷地对网络设备进行管理,通过显示屏和键鼠设备组成控制台,并结合KVM交换机设备,可本地或远程登陆所有的设备,对多品牌、多种设备进行统一管理,节省了空间和人力资源,降低了运维成本[4]。

4.结束语

随着信息化技术和网络应用的不断推进,越来越多的中心机房将会面临升级改造的问题。机房建设不是一劳永逸的项目,而是一个逐渐演进的系统工程。在机房建设过程中,除了常规的强电、弱电、消防、空调等多个子系统建设外,还应注重机房的环保节能,需要全面理解和整体认识可靠、绿色、智能三者的关系,寻找它们之间的平衡点。只有这样才能提高数据中心机房的整体建设水平,为用户提供高效可靠的服务。

参考文献

[1]张志钢,王泽生.高校数据中心的绿色节能研究[J].天津城市建设学院学报,2010(2):136-140.

[2]金国刚,党倩,祝唯微.可信绿色智能数据中心机房建设的研究与思考[J].电力信息化,2011(3):85-88.

[3]何鑫.某数据信息中心绿色机房改造方案[J].智能建筑电气技术,2011(5):64-68.