云数据中心方案范文
时间:2023-03-16 03:11:56
导语:如何才能写好一篇云数据中心方案,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。
篇1
关键词:802.1Qbg;VEB(虚拟以太网交换机Virtual Ethernet Bridging);VEPA(虚拟以太网端口汇聚器Virtual Ethernet Port Aggregator);Multi-Channel(多通道)
中图分类号:TP308 文献标识码:A 文章编号:1674-7712 (2013) 04-0046-02
随着服务器虚拟化和网络虚拟化的日益蓬勃发展,云计算在发展过程中出现了一台物理机上部署虚拟机过多vSwitch占用服务器大量物理资源的问题,虚拟机与外部网络对接、关联和感知不明确不可控的问题。如何解决以上问题,Cisco公司提出了802.1Qbh、802.1BR和VN-Tag技术方案,而HP(H3C)/IBM提出了802.1Qbg的技术解决方案。
一、802.1Qbg技术
数据中心的变革历经了服务器虚拟化、云计算等过程,而相应的交换设备也随之悄然演化着,标准的制定和推出为这一变化指出改革方向,802.1Qbg顺应改革浪潮及时跟进,对数据中心部署云时遇到的难题给出了解决方案。HP(H3C)/IBM对一台物理机上部署虚拟机过多vSwitch占用服务器大量物理资源的问题,虚拟机与外部网络对接、关联和感知不明确不可控的问题,提出尽量将网络功能移植回物理网络,推出了802.1Qbg标准。
802.1Qbg在交换功能上,除了兼容vSwitch原有的VEB模式(Virtual Ethernet Bridging)模式外,还增加了VEPA(Virtual Ethernet Port Aggregator)和Multi-Channel工作模式共3种。VEB模式是大家部署虚拟服务器时常见的模式,802.1Qbg兼容这种模式。此种模式下,同一台物理机上同一VLAN的虚拟服务器之间通信是直接经过该服务器内部的vSwitch转发,没有经过外部网络设备。虽然由于vSwitch这一网元数量的增加,可以拓展虚拟化网络规模,但也因为内部虚拟服务器数据交换不可控,QOS和网络安全控制是个难题。
VEPA模式主要是针对之前已部署虚拟化的企业推出的一种解决方案。HP(H3C)/IBM基于IEEE标准,提出在没有增加新的二层标签基础上,只对VMM软件和交换机软件简单升级就可实现VEPA转发功能。此种方案对已部署虚拟化服务器的用户影响较小,二次投入也不多。VEPA方案既可以采用纯软件方式,也可是采用硬件方式实现。经HP实验室测试,该方案报文转发性能比传统vSwitch提升12%或更高。VEPA要求VM服务器交换数据流必须经过外部Bridge,然后再原路返回VM响应服务器,路径的一进一出就为原来意义上的vSwitch减轻了负担,同时可以对相应端口进行Qos、ACL策略配置,IDS/IPS和防火墙等也可以对此端口进行安全管理,不但可控还节约了投资。
Multi-Channel工作模式是802.1Qbg的第三种模式,它是VEPA的一种增强模式。此种模式去除了服务器内部网络功能,而以S-Channel方式将虚拟服务器与外部网络连接起来,通过VDP(VSI Discovery Protocol)和CDCP(S-Channel Discovery and Configuration Protocol)协议报文交换,最终将将虚拟端口(vPort)终结在物理交换机端口上。多通道模式允许VEB、VEPA、Director IO同时存在,也允许各种组合方式存在。它将网络端口划分为并行独立的逻辑通道并在逻辑上隔离,通道可按用户要求随意安排成VEB、VEPA或Director IO的一种。多通道技术实现了VEB和VEPA共存一机的要求。值得一提的是,该方式需网卡和交换机支持S-TAG和QinQ功能,所以对新部署虚拟化技术的且要求比较多的用户比较适合。
二、802.1Qbg在云数据中心的应用测试
H3C公司作为HP的子公司,在802.1Qbg技术解决方案上做了大量的工作。笔者有幸作为一名测试用户申请试用了H3C的虚拟化数据中心平台。该公司为体验用户搭建了云数据中心的测试平台,VMM软件是基于KVM(IBM虚拟化)核心源代码开发的H3C虚拟化系统,管理软件是iMC CRM管理平台,网络平台是基于40G和100G的 H3C 12500路由交换为核心,服务器是美国HP制造的多台H3C服务器,并启用了各种后台存储设备。在该试用平台上,厂家利用多种基于802.1Qbg解决方案的技术,给用户提供多种体验环境。测试中,VMM迁移顺畅,业务实时工作不中断;虚拟机部署方便容易;各种网络管理策略可在管理平台上统一制定模板;实时对端口监测,发现异常及时报警。经观察,多通道技术对虚拟化应用支持力度最为强劲不但兼容了原有VEB,还可利用VEPA技术,在交换机上对虚拟服务器网络端口做各种策略,Qos、ACL保障极为便利,端口流镜像、报文统计、安全策略下发管理上极为方便。
数据中心虚拟化目前最大的问题是虚拟机迁移不可控的问题,而HP(H3C)/IBM在VMM迁移(vMotion)这个问题上,找到了一条比较明确的解决方案:即利用iMC CRM管理虚拟机状态,同时对可迁移的资源统一部署,利用802.1Qbg技术制定相应网络迁移策略和路径,做到可控的迁移,明确了VMM迁移的范围和可利用资源。
目前H3C iMC系统能够维护多达数万个虚拟机接入,基于层级化的网络管理模式,未来iMC将可管理虚拟机数量扩展到数十万甚至数百万,做到跨三层大范围的自动化配置与迁移,而这一切的实现都离不开802.1Qbg技术对数据中心虚拟化的贡献。
本人在测试中,感觉802.1Qbg对KVM、VMware支持力度很大,而对Microsoft的HyperV 3支持力度偏弱。如果厂家能及时跟进,加大与HyperV可扩展交换机技术的融合,开发相应的扩展程序包或硬件,将会是个不错的选择。毕竟微软的用户是众多的,而Cisco、NEC和Inmon也都为此开发了相关扩展包组件或硬件。
三、结束语
802.1Qbg解决方案将服务器虚拟交换机功能大部分或完全移植回物理网络,提升了服务器性能,明晰了网络与服务器的界限,增强了虚拟服务器与网络数据交换的可控性和安全性,降低了对安全设备重复投资的要求。802.1Qbg该技术和Cisco的VN-TAG如果互相借鉴的话,将会更有利于数据中心虚拟化的发展,EVB标准将会更加融合和发展。
参考文献:
[1]李存军.数据中心云接入技术比较[J].计算机光盘软件与应用,2012,23.
[2]H3C EVB技术体系介绍[J].IP领航,2012,6.
[3]H3C EVB数据中心应用模型[J].IP领航,2012,6.
[4]钱景辉.数据中心在云计算需求下的技术分析[J].现代计算机,2012,07.
[5]姜建伟.企业数据中心网络虚拟化环境中边界感知安全技术和应用[J].计算机应用与软件.
[6]吴晨,朱志祥,胡清俊.一种云数据中心虚拟交换的解决方案[J].西安邮电学院学报,2011,9,16,5.
[7]梁凯鹏.基于VEPA的云计算数据中心的设计与实现[J].广东通信技术,2011,09.
[8]Shehzad Merchant VEPA:虚拟交换解决之道[J].网络世界,2011,1,17第028版.
[9]李晨,许辉阳.云计算数据中心组网技术研究[J].电信网技术,2012,6,6.
篇2
关键词:银行数据中心;运维方案;经济性
中图分类号:TP308
许多银行将安全性、可用性、易维护、可扩展性作为数据中心建设重点,不注重其经济性。数据中心的建设是一笔庞大的开支,银行做任何投资时都要考虑到其回报率,在投资回报率的压力下,数据中心的规模一般不会很大。而金融业的快速发展又使得银行的业务迅速增加,当业务量暴增时,数据中心就必须扩建才能满足工作需要。实际上,不断扩建的过程中提高了数据中心的建设成本,而且扩建的效果不太好,扩建又会造成资源的浪费,同时还使数据中心的运维风险增加,不利于银行的健康发展。这种数据中心建设策略不利于银行提高工作效率和降低成本,无法为客户提供全方位的多元化服务,银行的服务水平降低,进而不利于银行的发展。
在银行数据中心建设中,必须注重其经济性,注重数据中心的扩展性,确保在数据中心上的每一笔投入都能获得最高的回报率,减少资源浪费,并且使数据中心最大限度提高银行工作效率。那么,其经济性又可以从哪几个方面体现呢?
1 数据中心的选址
数据中心选址是数据中心规划中最为基础的内容,科学合理的选址可以大大节约资源,降低投资成本。商业银行的数据中心一般是采用“两地三中心”的规划方案,也就是生产中心、同城灾备中心、异地灾备中心在两个城市中。
1.1 生产中心和同城灾备中心选址
生产中心与同城灾备中心处于同一个城市里时,二者之间的距离必须在20km以上。为了保证同城灾备中心于生产中心之间的顺畅交流,二者之间应建立起交通通道,使得物质、人员可以快速实现转移。而同城灾备中心要对各种灾难性事件进行高效率的处理,因此,在选址时就要考虑到周围的供电状况、市政基础设施服务状况、通信环境、自然环境等。当然,选址的地价也是需要重点考虑的一个问题。
生产中心与同城灾备中心的选址应注意以下几点:
第一,二者之间的距离大于20km。
第二,周围需要有良好的供电环境,保证其基本电力需求。
第三,两者均需要接入城市骨干通信环网,但是需要是在不同的通信节点上接入通信网。
第四,生产中心与同城灾备中心之间有良好的交通环境,能够迅速完成人、物的转移。
第五,地价较低廉,有良好的排水条件。尤其是在多暴雨的城市中,选址时尽量选择地势较高的地段,确保排水的顺畅。
1.2 异地灾备中心选址
异地灾备中心的主要功能就是:发生重大灾难性事件时,确保业务应用系统的正常运行,尽量降低同城灾备中心在进行灾难恢复时的风险。一般而言,异地灾备中心与生产中心位于不同城市,选址时主要考虑的因素是:社会经济人文环境、自然地理环境、人才环境、基础设施环境、成本因素、周边环境因素和政策环境因素。其中,自然地理环境是需要着重考虑的要素,而且这几大要素又往往是相互制约的。当选择在一线城市时,其成本会很高,但是人才环境、基础设施环境会很好;如果选择在三四线城市中,其成本大大降低,但是人才瓶颈就很难解决了。
之所以要特别注重自然地理环境是因为,如果异地灾备中心的自然环境较恶劣,容易发生自然灾害的话,那么它本身就存在了很大的灾害风险,当发生灾难性事件时,很难确保业务应用系统的正常运行。
从经济学的角度来说,异地灾备中心选址需要注意以下几点:
第一,与生产中心位于不同城市,距离在300km以上。
第二,城市可以提供满足需要的人力资源,政策环境优。
第三,自然地理环境好,自然灾害少。
第四,城市的通信网发达。
第五,有丰富的电能资源,电价低廉。
2 数据中心基础设施规划
从现实环境来看,银行数据中心改建、扩建已不鲜见,那么为了节约资源,为客户提供更高满意度的业务服务,银行在建设数据中心时应尽量扩大规模,从银行未来很长一段时间的发展角度思考问题。数据中心的规模除了要满足当前的业务需要,还要满足未来的业务需求,至少留出三分之一的空间给未来的新兴业务。
据悉,功耗带来的成本压力已成为银行数据中心的一大挑战。因此,建设数据中心时要考虑到电价,还要考虑到服务器的耗能,尽量选择节能的服务器。
在数据中心机房的功率密度越来越高的情况下,要注重制冷系统的规划,空调位置靠近机柜、按照冷热通道分离的方式进行制冷系统的规划,尤其要重视热点区域的制冷系统的规划。
在通信布线规划上,在垂直和水平方向上均拥有两路以上相互分离的入户光缆通道,经过不同的方向进入数据中心通信机房。由于数据中心对防火性能要求较高,因此布线时尽量减少铜揽的使用,优先选择光纤的方式进行线路的布设。为了有效提高防火性能,可以在线路布设完成后,在线缆上涂刷一层阻燃剂。
3 绿色数据中心理念
随着不可再生能源的迅速消耗和自然环境的破坏,可持续发展理念提出,人们也越来越重视自然环境的保护。银行数据中心建设中,为了降低成本,遵循绿色数据中心理念势在必行。在数据中心建设中,尽量使用可再生环保的资源,提高资源利用率。
绿色数据中心最显著的特点就是能耗的大大降低,在数据中心的使用中,机房的计算机设备、电气设备、照明系统等都属于节能型设备,能够最大限度的利用资源,并减少污染物的排放。
在节能问题上,首先在设备的选型上注意其能耗,尽量选择能耗低的设备。比如说,运用UPS来减少电源系统的损耗;用刀片服务器替代传统的机架式设备;采用节能型照明设备。再比如说,在热点区域使用太阳能空调,达到节能的效果。其次,尽量减少设备,也就是说,提高每个设备的利用率,尽量做到一机多用,这样不仅可以达到节能的目的,还可以节约空间,另外也能适当减少制冷设备的利用。再次,尽量利用自然资源。在制冷系统上,并不是所有的制冷都需要运用制冷设备来完成,可以根据自然环境的变化,充分利用室外的冷空气,利用新风节能系统将室外的冷空气引入室内,并将室内的热空气排出,或者说将室内的热空气排放到人行通道中,这样又可以减少人行通道中的制暖设备,这样就能大大节约能源,还能减少对环境的污染。
除了前面提到的几点节能措施外,为了实现绿色数据中心,应对数据中心进行全面规划分析,任何一小点都不能放过,尽量减少能耗,充分利用自然资源,节约资源。
4 结束语
银行数据中心的建设是一项非常复杂的工作,技术含量高,涉及学科多。在当今银行业务迅速增加、银行规模不断扩大的形势下,银行要注重数据中心建设和运维的经济分析,从数据中心的选址到机房、通信系统等基础设施的建设,再到各个设备的选型和布置,对每个部分进行经济分析,力求建设出最优的数据中心,提高银行工作效率,提高服务水平,促进银行的可持续发展。
参考文献:
[1]胡滨.数据中心建设和运维方案的经济性分析[J].中国金融电脑,2010(01).
[2]李小庆.基于银行发展战略的数据中心管理[J].中国金融电脑,2010(02).
[3]赵磊.银行数据中心核心网络的构建研究[J].科技传播,2013(4).
篇3
太极股份于2010年成功上市,并将数据中心业务确立为新的发展阶段的核心单元,太极数据中心事业部遵循数据中心建设与业务发展及IT战略相融合的系统方法论,在深刻理解用户业务和发展模式的基础上,创造了以业务应用系统及基础设施工程相融合的新型服务模式。
多年来,太极股份作为国有控股的上市企业以及国内优秀的IT服务供应商,依托全面整合的资源,凭借不断创新的理念,依靠雄厚的综合实力和精湛的专家队伍,一直引领着数据中心建设的发展方向,并且获得了广大客户的高度认可。
综合实力
太极股份数据中心事业部具有以下业务能力:
第一,咨询与设计能力。凭借丰富的行业知识和工程实践经验,以及一流的咨询团队,太极数据中心事业部为数据中心客户提供基于行业的IT规划及高端业务咨询设计服务,包括数据中心场地建设及IT基础平台的搭建等。
第二,基于方法论的项目实施能力。
经过长期工程实践的积累,太极数据中心事业部逐步建立了成熟的项目实施和管理方法论体系,覆盖数据中心的咨询、设计、实施、运维、测评、节能环保等不同类型项目。基于方法论体系,太极股份数据中心事业部形成了业内领先的工程实施能力,尤其是大型的复杂工程项目实施能力。
第三,创新能力。坚持自主创新、创新与应用相结合,太极数据中心事业部致力于提升自身在行业内的竞争力。目前,太极数据中心事业部拥有突出的关键技术和标准研究能力,拥有一流的解决方案和产品创新能力。
为数据中心客户提供以云架构为基础的云服务,创新数据中心技术和产品,推动解决方案和服务产业化。
业务范围
太极股份数据中心事业部的业务包括咨询设计、安装调试、系统集成、项目管理、运行维护和运营外包等一体化端到端服务组成。
太极数据中心充分考虑客户的业务、技术和运行现状,为客户提供数据中心建设的整体框架模型,根据客户要求在各个方面进行深入调研及规划,协助客户分析、整理出IT架构对基础设施建设的功能布局、平面布局的要求,并对后续设计、实施和运维提出系统性的指导建议。
篇4
目前,厦门科华恒盛股份有限公司(以下简称“科华恒盛”)是国内智慧电能领导者,始终定位高端,在25年高端电源创新研发应用基础上,致力于打造国内数据中心物理基础架构平台解决方案领先品牌。
近日,科华恒盛成功牵手华东地区的信息技术服务外包基地——中国国际信息技术(福建)产业园,为该项目提供科华恒盛Kelong品牌KR33系列IGBT整流高端大功率UPS产品,并以其为核心制定云动力绿色数据中心配电解决方案。同时,科华恒盛中标了23台400KVA、两台300KVA和一台120KVA UPS及相关配电、电池系统,累计金额近千万元。
中国国际信息技术(福建)产业园一期数据中心项目使用了科华恒盛KELONG品牌KR33系列的高端大功率UPS产品26台,以及供高可靠高效率的IGBT整流机型。该整流机型输入谐波电流低于3%,输入功率因素大于0.99,输出功率因素达到0.9,整机效率高达94%以上,市电输入与UPS输出电气隔离。此外,相关配电系统完全根据用户现场优化设计与摆放,电池系统安装单体电池在线监控系统,实时监测每节电池的状态。
据悉,科华恒盛近日又成功承建了四川雅安城市云计算IDC数据中心项目,项目金额千万元级。该项目为构筑雅安智慧城市,提供了包括发电机、配电系统、UPS系统、机柜系统、空调制冷系统、动力环境监控系统和冷通道技术组成的整体解决方案,是继山东泰安云计算中心成功交付使用后科华恒盛承建的又一个政府城市云计算中心整体解决方案的高端项目。
雅安是国家试点的智慧城市之一,经历4.20地震灾害后,雅安智慧城市建设更显积极意义。此次雅安城市云计算中心IDC项目,是建设雅安智慧城市的关键技术支撑,也是把雅安打造成为中国西部“云谷”的重要保障。该项目将为雅安各政府单位统一提供信息化服务。
在雅安城市云计算IDC数据中心项目中,科华恒盛组建专业团队,通过研究项目方的真实需求,完成对实际地形的勘察,深入分析,在数据中心规划、设计和整合方案等方面 ,秉承高标准和绿色环保的理念。
在该项目方案的执行过程中,科华恒盛集中贯彻“绿色”和整体思维,从供配电、制冷、智能管理三角度进行详细规划设计和实施,为项目方打造科华恒盛极具特色的云动力绿色数据中心解决方案,也为雅安智慧城市成功试点提供有力的基础架构支撑,并为雅安城市灾后重建更智慧、更美好的城市做出自己的贡献。
2013年,科华恒盛已陆续完成华北油田IDC、中国移动国际信息港IDC、上海移动IDC、上海电信IDC、广东电信IDC、泰安云计算IDC、国富瑞(福建)灾备IDC、洛阳景安IDC等多个大中型IDC数据中心的项目,为科华恒盛云动力绿色数据中心解决方案的市场拓展奠定了坚实的基础。
篇5
“互联网+”时代,随着利率市场化进程的加快,民营资本开放,互联网金融倒逼传统银行加快转型步伐,传统银行更加积极拥抱互联网思维。光大银行“大集中2.0”于2013年开始规划和实施――总行统一规划并建设私有云,经过两年的时间,已建设完成同城双活数据中心IasS基础设施云,优化了光大银行总分行信息科技工作模式,产生了良好的经济和社会效益。截至2015年,光大银行率先完成分行开发测试云和生产云落地部署,实现分行IT规模“瘦身”,使分行科技人员能够有更多的精力参与业务营销。未来,中国光大银行要完成“全行池化”,通过建立涵盖总分行的异构资源池,提高IT资产的利用率和自动化运维能力,有效控制数据中心规模扩大时的运维成本。
为了进一步完善光大银行私有云逐步落地,在全国12家股份制银行中,光大银行率先整合完成多个数据中心,使得资源共享,实现多中心集约化运营,构建光大银行私有云数据中心。分布在多个同城中心之间业务集群需要二层芯跳和虚拟机迁移等应用场景,需要同城多数据中心之间的网络二层互联互通,光大银行通过广泛调研和对多个主流厂商网络二层互联方案严格比拼测试,最终选择华为EVN(Ethernet Virtual Network)二层互联解决方案。华为EVN方案是基于IP的数据中心二层互联创新解决方案,它代表了当前业界二层互联技术的最新发展方向,EVN方案不仅具有高可靠和易用性,而且还具有开放标准特性,华为EVN方案使用标准EVPN协议来MAC地址,二层隧道采用VXLAN的封装方式,多个数据中心间的承载网络只需要满足IP可达即可。
光大银行基于不同业务的重要性,规划和实现了近百种不同应用系统的多活部署。其中,Web前置和APP中间件实现同城数据中心多活部署,同城多中心之间的数据库也可以做到双活部署。
篇6
关键词:数字化校园;云数据中心;虚拟化
中图分类号: TP399 文献标识码: A 文章编号: 1673-1069(2016)32-174-2
0 引言
随着信息技术在高校的教学、科研和办公等方面的广泛应用,各高校业务应用系统的数量和存储的数据量也不嘣龀ぃ数据中心的规模越来越大,这就对数据中心的安全性、可靠性、灵活性提出了越来越高的要求,传统数据中心的建设管理方式已经无法满足当前数字化校园发展的要求。
河南工业大学数据中心承载了学校在教学、科研和办公等各方面的业务应用系统,目前面临着系统建设周期长,建设成本高,设备利用率低,业务部署流程环节多,上线周期长等问题,为解决这些问题,河南工业大学新数据中心的建设采用了云数据中心建设方案。
1 云数据中心建设目标
河南工业大学云数据中心的建设目标是搭建一套安全、可靠、稳定、灵活、高效的数据中心,以满足校园业务应用系统部署与运行的需求,为数字化校园提供安全可靠的支撑平台。
2 云数据中心建设方案
河南工业大学云数据中心建设方案计划充分利用学校现有的资源,通过虚拟化平台和分布式数据中心管理平台,形成逻辑统一的资源池,并通过分布式云数据中心统一管理平台对学校各部门提供统一的基础资源服务。今后,各部门在业务系统的开发过程中,可以不用再考虑基础资源的设计,只需专注于业务的设计。
2.1 虚拟数据中心(VDC)服务
本建设方案计划根据各业务部门的需求将学校物理数据中心灵活划分成虚拟数据中心VDC(Virtual Data Center)。每个VDC可以独立提供完全和物理数据中心一样的服务以及资源,每个VDC都有自己的管理员、服务目录等等,VDC管理员可以直接管理、审批VDC内用户的服务申请。VDC之间的资源和网络相对隔离,同时可以通过VDC跨物理数据中心,实现多个物理数据中心资源的统一发放和调度。系统管理员可以将学校整个数据中心的计算、存储、网络资源划分到各个VDC,分配给各个部门。VDC管理员可以在VDC里进行定义模板、定义VPC等操作。通过VDC管理,让学校各部门拥有自己独享的数据中心。
2.2 虚拟私有云(VPC)服务
为满足不同部门的业务应用系统安全隔离的需求,校园云数据中心为各部门提供虚拟私有云VPC(Virtual Private Cloud)服务。校园云数据中心为每个要进行应用部署的部门分配一个独立的VPC。VPC能够为各部门提供安全、隔离的网络环境,实现各部门间业务应用系统的隔离以及外部网络访问的安全控制。
2.3 虚拟主机服务
校园云数据中心为各部门提供虚拟主机租用服务,各部门管理员可以在公共平台上对租用的虚拟主机进行全生命周期的管理。
2.4 虚拟存储资源服务
校园云数据中心提供的存储资源服务主要有云硬盘和对象存储服务。
①云硬盘服务。用户可申请云硬盘或对已有云硬盘存储空间进行扩容,通过存储空间扩容或新的云硬盘申请,可以使单台虚拟主机空间容量无缝扩展。云硬盘可以挂载到任意一台虚拟主机上,两者隶属于不同的生命周期,当虚拟主机被删除时,云硬盘数据仍然保留,并可以挂载到其他的虚拟主机上。②对象存储服务。通过对象存储服务,校园云数据中心可以为各部门提供海量的存储资源池服务。各部门在解决自身存储空间需求的同时,还可以根据对象存储服务中的接口规范,改造自己的应用系统与存储资源进行对接,实现应用系统对资源池的使用。
2.5 虚拟化平台规划
云计算资源池,使用云计算技术将服务器物理资源抽象成逻辑资源,让一台服务器变成若干台相互隔离的虚拟服务器,不再受限于物理上的界限,而是让CPU、内存、磁盘等硬件变成可以动态管理的“资源池”,从而提高资源的利用率,简化系统管理。
①虚拟化安全隔离。校园云数据中心运行了多个部门的业务应用系统,通过虚拟化隔离、VLAN网络划分、安全组隔离等手段保障各部门应用间的相互隔离,互不影响。②虚拟化热迁移。校园云数据中心提供基于共享存储的虚拟化热迁移,在迁移的过程中不影响用户对虚拟机的使用,从而满足数据中心虚拟化业务的连续性要求。③虚拟机高可用性。校园云数据中心提供故障自动迁移机制,大大提升了虚拟机的可用性,出现故障后能够重新在资源池中自动启动虚拟机。④虚拟机规格动态调整。校园云数据中心可以根据应用系统的性能需求,灵活调整虚拟机的配置规格,包括调整VCPU数量,内存、虚拟卷的容量和网卡数量等。⑤虚拟化平台管理。虚拟化平台管理系统包括集成资源管理和服务自动化两个部分,它将整个云数据中心中对用户可见的资源提取出来纳入统一的资源池管理,为用户提供一体化的资源管理体验,还为用户提供方便的获取资源的途径,用户可以通过服务目录自动的获取资源并在资源上部署相关的应用。
2.6 计算资源规划
①服务器架构。目前学校各应用系统以B/S架构为主,因此业务系统服务器架构也以三层架构为主,即由Web服务器、应用服务器、数据库服务器组成,同时配置辅助管理类服务器。Web服务器和应用服务器一样,采用“虚拟机+负载均衡集群”的方式提高系统的运行效率和可靠度。数据库服务器根据应用情况通过数据库本身提供的集群软件实现数据库的高可用性。管理类服务器主要用于虚拟化管理平台、安全管理平台、身份认证系统、网管、运维等系统的部署。②虚拟化适应性分析。对于校园业务应用系统服务器的需求,首先要判断该业务服务器是否能够采用虚拟化方案,不能虚拟化的则要采用满足实际需求的服务器进行配置,其他的则建议统一采用虚拟化方式部署。③虚拟机规格选型。根据服务器功能分类和业务应用的性能需求,经过评估后,可以选择不同规格类型的虚拟机。
2.7 存储资源规划
服务器存储网络主要包括IP SAN存储网和FC SAN存储网。服务器存储网络与业务网络是物理隔离的,服务器的业务网卡和存储网卡是分别上联到业务网络和存储网络的对应交换机上。目前,学校的业务应用系统数据分散存放在服务器本地硬盘和不同型号的磁盘阵列中,无论在性能、容量、可靠性、维护管理简单性等方面都无法满足要求。集中式SAN存储方式,不仅可以解决数据无法共享、本地扩容出现瓶颈等问题,还可以使校园业务应用系统的性能得到大幅提升,业务数据的安全性得到更有效的保障。
2.8 容灾备份规划
①备份规划。根据整体设计规划,针对我校目前整个数据中心的多套核心业务系统,在本地和异地分别部署一套备份一体机,构建数据安全保护灾备系统。本地备份一体机进行本地数据中心的虚拟化平台虚拟机操作系统、应用、数据库的整体保护,将数据进行统一集中灾备,同时将本地备份数据异步复制至异地校区,形成互为灾备的全方位保护方案,保证数据的有效性和可恢复性。②容灾规划。本建设方案以河南工业大学本部校区数据中心为物理站点,构建基于数据保护的本地备份的同时,O计将本校区老机房或异地校区设为容灾物理站点,构建双活云数据中心,为学校各类应用业务提供高可用性基础保障,为构建虚拟数据中心提供资源和服务,保障数据的一致性和完整性。
2.9 安全保障规划
本建设方案按照等保三级标准要求进行分区分域设计,提供网络安全、主机安全、应用安全、数据安全、虚拟化安全等多种安全措施。
2.10 统一运营运维规划
云数据中心运营运维平台提供一站式解决方案,把物理分散的数据中心资源整合为逻辑统一的资源池,把计算、存储、网络等基础架构资源作为云服务向用户提供,实现了用户自助服务,数据中心物理资源和虚拟资源统一调度。
3 结语
河南工业大学云数据中心建成以后,将实现校园应用系统的云化部署,实现计算存储资源的虚拟化、资源共享、灵活分配,实现业务服务器的整合、调配和集中化管理,为河南工业大学数字化校园的快速发展提供安全可靠的支撑平台。
参 考 文 献
篇7
可见,让传统的数据中心接纳云网络概念并不容易。但是在年初,锐捷刚刚推出云产品的时候,就宣布其产品已实现商用,还成功为阿里巴巴等典型的云计算企业构建了云化的数据中心。以如此之快的速度让云产品落地市场,锐捷到底用了什么方法?带着这个疑问,记者来到了锐捷2011年的渠道大会,以期寻找到答案。
完整的云图
“锐捷们”,是记者对锐捷渠道商的一贯称呼。在锐捷今年的渠道大会上,记者发现锐捷们对云的兴趣开始越来越浓。可见,去年还对云概念懵懵懂懂的渠道商,如今也渐渐嗅出了云计算技术发展可能给他们带来的机遇。
网络市场并不是从今年才开始热衷于云计算的,目前很多厂商都推出了相应的产品或是了相应的网络架构。各种新技术、新产品一股脑儿涌入市场,不免令人一头雾水。但奇怪的是,到场的锐捷们几乎在一天半的时间里,就完全理解了锐捷的云网络。
锐捷对云的描述没有从某个产品或技术开始,而是展示了一幅云网络的“全景图”。这是一套完整的解决方案,包含了数据中心安全运维管理系统、数据中心安全智能系列、数据中心核心交换系列、数据中心接入交换系列四大类别的面向云计算需求的全线数据中心产品。锐捷的云更像是一种一站式的服务,通过锐捷的产品或方案,用户数据中心向云转换过程中所遇到的问题,都能在锐捷找到相应的解决方法。用锐捷副总裁刘弘瑜的话来说,锐捷要做的是一个适合未来商业模型的“无阻塞”的云计算网络,只有全系列的产品才能使客户对云计算策略的部署在数据中心落地时真实可靠。
今年年初,记者在采访云快线的时候了解到,在云计算数据中心运营的过程中,网络带来的复杂性问题越来越严重。他们认为云中的网络将不再仅是数据中心里的基础设施,它的作用应该更像是神经系统。网络应该在提供强大的数据通信能力的同时,也能实现智能扩张及智能管理,以及处理安全问题的能力。从这一点来看,用户对云网络产品的需求将和对传统网络产品的需求大不相同,单一的产品或是只能解决局部问题的方案将逐渐失去价值。可见,一站式的方案将会更贴近未来数据中心用户的实际需求。从另一个角度来看,全面的产品线也更便于渠道完成部署,大幅缩短锐捷云产品进入市场的周期。
应“变”能力
在刘弘瑜看来,云计算的本质就是“按需可扩展”,它要求数据中心的服务器能做到灵活地一变多和多变一,这样的能力目前主要依靠虚拟化技术来实现,但要达到相应的效果,网络产品应“变”的能力才是关键。比如当虚拟化需要由一变多时,网络如何即时反应?虚拟化由多变一,设备性能是否能满足成倍增长的要求?各种虚拟化环境,安全如何保障?业务如何管理?
从网络层面解决这些问题,交换机的应“变”能力至关重要。在锐捷的多款云网产品中,都可以看到这类应“变”技术。如RG-S12000 Cloud Computing系列采用了VSU虚拟化技术,可将多台高端设备虚拟化为一台逻辑设备,能有效实现虚拟机迁移过程中网络不中断。而其支持802.1Qbg的特性,也能够解决传统虚拟机交互性能低下的问题。对VRF虚拟化的支持,更便于满足数据中心网络一变多的需求,以及多业务安全隔离的需要。
TRILL协议目前被业界认为是有效简化网络设计,提高网络可扩展性和弹性的基础,也是构建大型虚拟化云计算网络的根基。在锐捷的RG-S12000云计算交换机产品系列中,记者也看到了其对TRILL协议透明交换技术的全面支持。同时,伴随着数据中心融合网络的趋势,锐捷的RG-S12000系列还为服务器提供了FCoE(Fibre Channel over Ethernet)接入和以太网接入服务,解决了数据中心在网络过渡过程中整合异构的LAN和SAN网络的需要。
锐捷一直遵循着一个很有名的战略思想,那就是利基战略:利基一词来源于法语nichi,它所表达的是一种在攀爬的过程中抓住缝隙努力向上的精神。在锐捷,它不仅是做事业的思路,也是做产品的思路:通过无限贴近客户需求,寻求差异化的方案,以求得生存发展的空间。对于云,锐捷所强调的网络应“变”能力独树一帜,但这正是当前数据中心向云计算环境进化的根本需求,或许这也是让锐捷的云能够快速走入商用的原因之一。
把合作伙伴引入云生态链
“云计算时代的来临被称为第三次IT浪潮。它将带来工作方式和商业模式的根本性改变,可以说,云计算已越来越成为经济发展与科技发展过程中的一种必然选择,尽管它才刚刚开始。这将是一个以万亿元计的市场。”在刘弘瑜眼中,云是一个巨大的市场,它对锐捷和锐捷的合作伙伴而言都是巨大的机会。但在这样的机会面前,合作将变得比任何时候更加重要。因为大量新的尖端技术的落地与云计算相关整体解决方案的形成、部署、维护,都需要生态链中各环节的密切配合才能将机会变为现实。
除了提品和相应的解决方案外,锐捷还提供了一个被其称为基于“开放共享的云服务”理念的IT运维管理解决方案。据刘弘瑜介绍,IT运维管理是一个快速增长的市场,这几年的平均市场容量增长达30%,已经是一个50亿元规模的市场。在云安全管理领域,锐捷从2007年开始研究、2009年正式推出产品和服务,至今已成为这个领域的主要方案提供商,而锐捷拓展这个市场采用的就是基于“开放共享的云服务”的理念。
篇8
关键词:数据中心;管理;现状;发展;趋势
0 引言
随着网络建设的不断发展,对于企业来说,数据中心越来越重要,企业对于数据中心的依赖性越来越强,企业业务相关数据越来越庞大,从各个行业来说,能源、交通、金融等行业得到了充分的应用,云计算的应用对于数据中心的要求也越来越高,通过分析可以得出,大多数数据中心的问题都是由于工作人员的失误造成的,设备的问题也是一个发展的障碍。
1 数据中心管理的现状
数据中心的工作人员包括很多部门和工种,其中包括技术人员、管理人员、维护运行的人员等,其中工作人员作为管理和技术的主体对于数据中心的正常运行十分重要,直接促进了数据中心的稳定运行,数据中心作为技术性较高的工作需要工作人员具有更高的素质和专业技能,其中包括了责任心和对设备的了解,只有工作人员素质得到了保障才能够避免影响到数据运行的运行效率和运行安全。
1.1 设备 从设备上来说,数据中心的大量数据存储就需要大容量设备的硬件支持,如何进行设备的有效管理需要从物理上分布式部署,逻辑上进行管理的统一。
1.2 业务 数据中心的业务应用使同一个平台的设备融合,从业务的角度进行管理能够有效的优化数据中心的管理,另外还可以从性能和流量的角度进行业务的监控和优化,从而实现数据中心的有序进行。
1.3 服务 对于运维方面的服务来说,如何促进管理的规范化和审计化都是需要服务运营中心的转变,总的来说,数据中心的管理方式需要对基本的基础设施和业务流量进行清晰的分析和研究,对各项资源进行科学详细的整合,其中包括设备、流量、业务、服务、应用等,从而建立一个虚拟的资源环境,为管理打下基础。
2 数据中心管理的发展
随着数据中心的不断发展,除了基础的资源整合之外,资源的虚拟化和自动化也在不断的发展,其中主要包括了对虚拟资源的管理和对资源自动化的管理,这两种管理形式都是在资源整合之后才能有效实施的。
2.1 云管理 由于云管理的发展时间较短,目前仍处于初级阶段,所谓的云管理其实也是数据中心的管理形式,是对资源一个虚拟化、自动化、整合的过程,新的数据管理平台不断的产生新的变革,目前已经采用了面向服务架构(SOA)的设计思想,对管理资源、业务以及运维进行了科学的融合,形成了对客户需求能够满足的解决方案,提高了工作效率,为数据中心的各种关键业务系统提供支撑。
①方案对于数据中心的管理是尤为重要的,首先是基础设施的整合管理方案,其中要做到大容量、可视化等要求,在硬件方面的基本要求大概是要进行传统的功能改进,做到从拓扑、告警、性能、面板、配置等的匹配性,从而在硬件方案上能够实现基础设施的整合管理工作。②数据中心的设备机房、机架等也需要进行有效的管理,其中一种新型化并且效果具有优势的管理方式即为可视化拓扑的管理方式,这种管理方式能够实现管理员对资源的多维化管理,工作效率更高,管理质量更好。③数据中心管理需要提供虚拟化、自动化的管理方案。虚拟资源的监控、部署与迁移等需求,将推动数据中心管理平台进行新的变革。但是目前来说发展还不够完善,有很大的发展空间。
2.2 虚拟资源管理 对于虚拟资源,需要考虑在拓扑、设备等信息中增加相关的技术支持,使管理员能够在拓扑图上同时管理物理资源和虚拟化资源,加强对各种资源的配置管理能力,满足快速部署、业务迁移、新系统测试等不同场景的需求。
①数据中心管理需要提供面向业务的应用管理和流量分析方案。对业务系统的管理应该遵循高可靠的原则,避免影响业务系统的正常运行。②在可视化方面,网络管理与业务管理进行有效的对接能够实现IP与IT的融合管理,但是这种形式和业务有可能会造成流量瓶颈,影响业务运行。
因此可以对诸如流量分析软件进行改进,提供流量分析技术的分析功能,并通过各种可视化的流量视图,从而找出瓶颈,规划接口带宽,满足用户对内部业务进行持续监控和改进的流量分析需求。另外,数据中心管理还需要提供可控、可审计、可度量的运维管理方案。
2.3 运维管理与成本管理 引入运维管理,参考ITIL管理模型,结合企业内部的人员、技术、流程和其他条件,通过用户服务平台、资产库、知识库等工具,对常见的故障处理流程、配置变更流程等进行梳理和固化,加强服务响应能力,及时总结相关经验。
2.4 人员素质的提高 对于人员素质的提高和保障来说,需要通过考核等方式,根据企业具体情况进行设定,从而提高工作人员的工作积极性和责任感,做到有奖有罚,设立严格的规范要求,对数据中心工作人员工作效果进行考核,对于数据中心的日常检查需要详细记录,每个接触数据中心的工作人员都要进行记录,对于进入数据中心设备区的人员要有机房环境熟悉的工作人员陪同,避免造成意外事故,影响数据中心数据;另外,由于数据中心较为关键,所以对于数据中心设备区的进出工作人员要详细记录,并且设定权限,必须得到有权限的批准才可进入,对于进入设备区所能携带的设备和物品也要严格检查,避免由于人本身的因素造成数据的丢失或者事故故障。
由于数据中心管理工作量大,这就需要数据中心人员必须有足够的休息时间,避免疲劳工作造成差错。
除此之外还要进行数据的(云)备份,从而从根本上避免出现问题之后的不可弥补,(云)备份数据可以在出现问题之后进行转入,即便在备份中需要成本,但是会大大减轻事故的影响,总的来说还是十分必要的。
3 结语
综上所述,数据中心的管理需要从资源的整合开始,完成底层资源的各项整合之后,通过虚拟化和自动化的不断发展,实现数据中心的进步和完善,从而促进信息化管理的快速发展。
参考文献:
[1]周灯台.基于ITIL的云计算数据中心管理及运维研究[D].南开大学,2011.
[2]曹福凯,高晶,沈宏,等.基于ITIL理念的数据中心管理标准化设计[J].煤炭技术,2012,31(6):191-193.
篇9
在2012第五届中国数据中心大会的虚拟化与云数据中心建设分论坛上,来自业内知名企业的代表和各行业CIO,就大数据时代的云计算技术和应用发展,以及数据中心变革等话题,展开了深入探讨和交流。
云计算推动数据中心变革
据IDC统计,过去10年,全球各地数据中心的建设和发展速度很快,数据中心设备安装量增长迅速:服务器的安装数量增加了6倍,存储设备增长了69倍。云计算的火热正在推动数据中心建设的热潮。
中国万网副总裁、解决方案事业部总经理范春莹表示,从互联网应用客户的角度看,存在着单点故障时有发生、升级扩展困难、起步门槛高、不能按照资源使用付费、用户访问量波峰波谷时段难以协调资源等问题。对互联网运营商而言,服务器管理难,能耗大、不低碳不绿色,上架时间冗长、单点故障造成服务中断,客户服务很难精细化造成服务交付延期等问题制约着互联网运营商的服务质量,而云数据中心能够轻松化解这些问题。
“除了用户消费层面的应用需求,技术层面也在不断变革,驱动整个数据中心市场的发展,包括新的统一通信技术、无线技术、安全技术,以及网络应用技术等。”美国西蒙大中国区技术经理陈宇通认为,“数据中心技术发展迅速,IT布线领域的技术也随之不断变革,例如万兆网技术也开始向桌面演化,而这些技术以往都是主干网的核心技术。”
当前,30%的服务器工作负载已经虚拟化了。惠普亚太及日本地区首席存储顾问 Paul Haverfield 称,虚拟化的工作量在今后三年还将进一步提高,达到89%左右。去年,惠普收购了专注于云存储业务,在该领域有十年经验的的3PAR公司,并且推出了3PAR10000等产品。Paul Haverfield 认为,3PAR产品的核心优势包括三点:一是支持多个用户、多种模式进行租赁,跟传统的物理机相比,工作流量提升至少一倍,用户成本和能耗进一步降低;二是自适应或自调节功能,可以让相关IT管理人员节省约90%的配置时间;三是支持大型企业根据需求进行投资,升级存储能力,例如用户可以在开始时只购买50%的存储能力,然后慢慢升级。
绿色高效是重点
据统计,在美国,数据中心的每台服务器能够节省10%的功耗和支出,就等于100万个美国家庭一年的消耗量。随着能源成本越来越高,如何节能也是大家非常关心的一个问题。我国数据中心也面临节能的严峻形势:近10年来,服务器功耗增加了15倍,机架的供电密度也提高了10倍;过去,一个机架功耗为2kW~3 kW,现在却往往高达20kW~30 kW。这都使得机房耗电和内部发热量急剧增加,为解决高密度数据中心供电和散热问题带来了严峻的挑战。
在陈宇通看来,企业在部署云数据中心时,需要考虑的因素很多,例如材料的使用寿命、功率的消耗和热的管理。企业在选择材料时如果只考虑节约成本,可能三年就需要再更换,累计投入就会很高。而在空调效率、设备散热、机房环境温度设定等方面,如何才能提高冷风效率,该如何选择数据中心材料等,用户需要以高效、绿色、节能为原则。
美国于2005年推出了关于数据中心的设计和实施的942标准,今年6月即将推出其改进版本942-A标准,推荐了更新的传输媒介,更加强调高效和低能耗。这一标准将推动数据中心建设的技术向前迈进一步。
针对数据中心的绿色管理,天地超云公司推出了绿色数据中心管理系统,天地超云产品经理梁曜中表示,该系统“与数据节点进行直接的通信交流,对功耗、温度、湿度等各项硬件服务指标进行直接监控。另外,它能够自动调节,生成自动报表,对数据进行自动的存储,并且正在尝试对历史数据进行智能分析,做出相应判断”。
篇10
江苏飞搏软件技术有限公司(以下简称江苏飞搏)是国内知名的IT运维管理软件提供商,近几年在就云计算环境下的运维模式进行探索研究的过程中,开发出了基于数据中心建设和云计算应用模式的InsightView IT运维管理平台软件。InsightView是江苏飞搏打造的集运维流程管理、资源监控、资源管理、服务交付为一体的全方位运维平台,为企业建设安全、高效、智能、绿色的数据中心保驾护航。
困扰运维实施者的几个难题
在人们享受大数据、云平台这些新技术架构带来的便利的同时,应用变革也给运维工作带来了更多的负担。
数据中心的规模变得越来越庞大,资源也越来越多样化、专业化。数据中心对运维的要求不再仅是资源的可用性维护,还要求提供资源安全、数量、性能、容量、软件环境、资源服务能力等一系列优化方案。尤其是在云计算技术架构下,当IT基础设施面向用户虚拟化时,如何从基础资源类型、数量、性能等多方面满足用户需求的变化?如何面对未来用户业务的扩展变化?怎样实现灵活支撑、快速响应?这些问题还未被解决。
当软件通过互联网向用户提供SaaS层次的服务时,运营商不仅要向用户提供硬件资源,还要提供软件应用。在这种复杂的IT应用架构下,一旦给用户交付的应用出问题,运维人员需要从逻辑应用层面到物理基础架构层进行所有资源的故障排查、问题分析,对用户的软件资源需求,运维人员也必须能够基于平台服务进行快速构建,并对软件资源的性能、安全、容量等要求提出全面的解决方案。因此,我们必须寻找新的运维模式以适应新的软件服务方式。
数据中心运维大多由技术人员、设备供货商和第三方运维人员等多方参与,人员对设备和数据的操作很难做到准确定位、追溯;面对误操作、违规操作、恶意操作或灾难,数据中心包括各类软硬件资源的备份恢复难以实现。如何规划好运维工作、约束运维操作的合规性,也是保障数据中心正常运行的关键。
智慧运维管理理念
为适应当前数据中心建设和云平台应用对运维的要求,必须探索一种新的运维模式,希望这个模式使规划者、建设者、运维者、管理者等相关各方明晰自己的行为规范,减少执行的随意性,同时为大数据、云平台应用提供全方面的IT服务。为此,江苏飞搏提出了“智慧运维”解决方案,基于运维资源数据中心,打造企业IT运维云平台,实现用户与运维人员、组织机构、资源之间的互动。
江苏飞搏认为“智慧运维”必须是能够灵活适应各类IT资源管理的运维方案,基于该方案的运维软件产品必须支持对企业各类虚拟资源和其它新型资源的管控,并满足企业资源变更发展要求。只有这样,才能适应当前大数据、云平台等技术不断渗透的信息化大环境。
为满足当前数据中心建设体量大、类型多、速度快、价值高的要求,“智慧运维”必须能达到对这种应用模式下事件的快速响应要求。即使在数据中心海量数据服务任务下,也能对其运维工作进行自动分配分解、对服务中的事件智能疏导、对常规运维工作可以批量标准化实施;只有这样,才能保障数据中心在提供服务时繁而不重、杂而不乱、井然有序。
“智慧运维”解决方案的优势不仅体现在对各类资源的事后修复上,其优势更是体现在对整个基础架构的事先预防上:通过工具可以实现对全局资源信息的采集和资源运行情况的监控,并且在资源服务中断前进行风险预警,并触发相应运维流程通知运维人员采取措施防止资源故障发生。
不论是运维工作中因误操作提出的回滚要求,还是面对灾难产生的资源信息库重建需求,“智慧运维”解决方案都可以对所有关键操作进行追溯并快速构建历史任意时间节点的CMDB数据库,保障各类IT资源服务的连续性。
InsightView提供IT云服务
InsightView IT运维管理平台是江苏飞搏基于数据中心建设和云计算应用模式提出的智慧运维解决方案。该方案提出“一中心,两平台”的建设思路,通过SaaS服务的模式向企业提供人员、资源和流程高度整合的一体化运维服务。