数据中心范文
时间:2023-04-01 22:10:34
导语:如何才能写好一篇数据中心,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。
篇1
4月17日,万国数据深圳福田数据中心正式开业。这座建筑面积1.5万平米、可容纳2400个机柜的数据中心已经是万国数据在全国的第17座数据中心了,其总面积超过了15万平米。新建的这家数据中心,服务对象除了针对深圳的用户外,还瞄准了整个华南地区和香港,据说还没开业,就已经被客户签下了一半面积。
在云计算、大数据以及移动互联这些新兴应用的推动下,今天的数据中心市场依然是那么火爆。
谁是数据中心变革的推手?
如此兴盛的数据中心市场,其背后仰仗的是今天无处不在的信息和令人难以置信的信息增长量。看看每个人口袋里装着的智能手机,以及手里拎着的笔记本电脑和各种Pad,再想想正炙手可热的可穿戴式设备甚至汽车车载智能系统,我们的生活已经离不开这些设备了,而在它们的背后同样离不开的正是那些数据中心。我们已经对数据中心产生了依赖。
在刚结束不久的英特尔IDF14上,记者注意到这样一组数据:现在每400个移动电话就需要有一个服务器来管理它的内容,每120个平板电脑就需要一个服务器做支持,每20个数字图像采集器就需要一个服务器来支撑,每6个监视器就需要一个服务器来服务……由此我们可以看出数据中心与我们的生产、生活以及目前正火热的物联网、智能交通、智能安防等社会智能化的发展是如此地密不可分。
淘宝5年前开始发起的购物节“双11”在去年达到了新的水平,在短短的24小时中,淘宝实现了57亿美元的销售额,这一业绩与前一年相比达到85%的增长。让我们看看57亿美元背后的数字:峰值时有1700万个同时购物的人,支付宝每分钟需要支持7900个交易或支付交易,同时产生了1.52亿个需要送货的包裹。
如此“可怕”的数字需要背靠强大的数据中心。
上海市卫生局拥有4700多家医院的信息,每天都要产生1600万份病历。如何利用这些数据,提高医院的利用率,并通过数据分析改进对慢性病的跟踪,这些同样需要数据中心的技术支持。
2013年,中国“天河二号”成为全球排名首位的超级计算机,这个使用了4.8万颗英特尔至强融核协处理器和3.2万颗英特尔至强处理器的超级计算机,峰值性能可达54.9PFLOPS(每秒54.9千万亿次浮点运算)。利用它强大的计算能力,在大气污染模拟、高铁过隧道时的空气动力学效应以及小蛋白分子动力学上都取得了可喜的成绩。
正是基于目前这些热门领域对数据中心需求的分析,英特尔公司高级副总裁、数据中心事业部总经理柏安娜女士提出,对未来数据中心的业务发展至关重要的将是云计算、大数据和高性能计算这三个领域,它们未来的广阔前景将是数据中心的增长点。我们相信,这应该也是业界的共识。
数据中心驱动业务创新
面对纷繁复杂的市场变化,要抓住稍纵即逝的发展机遇,企业需要更快的响应速度、更高效可靠的运营管理和更准确的商业洞察。而作为重要的业务支撑和推动力量,IT技术扮演着越来越重要的角色。在这个过程中,作为IT的基础设施,数据中心的作用毋庸置疑。
数据中心是一整套复杂的设施。它不仅仅包括计算机系统(例如服务器、系统软件等)和其他与之配套的设备(如通信和存储系统等),还包含冗余的数据通信连接、供配电及制冷设备、监控设备以及各种安全装置,可以说数据中心是推进新一代信息技术产业发展的关键资源。
同时,云计算、物联网、大数据、基于移动互联的应用和HPC的迅速发展,SNS、电子商务、视频等业务的大规模增加给数据中心带来了持续的需求。例如在物联网等新兴领域,数据中心正在成为“改变者”的角色。
罗克佳华公司坐落在太原市南郊国家级高新技术产业区,他们将物联网应用与云计算服务完美结合,开创了“云+端”的技术模式。在罗克佳华的厂区内,建有一个规模为300台物理服务器的云计算数据中心,为全国各地的用户提供矿山运营、能效监管系统运营、电厂脱硝和脱硫运营、合同能源管理运营等服务。在罗克佳华董事长李玮看来,数据中心已经成为公司业务发展的重要推动力量甚至是创新力量。
“随着物联网技术的发展,连接网络的传感器必然会带来海量的数据,如果不能将这些数据处理好的话,那根本就不能算实施了物联网。”李玮说,罗克佳华正在积极采用云计算的模式来实现对各种数据的处理,即以物联网和数据技术为核心,采用“现场设备+异地云”的架构模式。现场设备即各种现场数据采集设备,“异地云”即罗克佳华建设的云计算数据中心。
在和用户签订相关协议后,用户将各种有效数据采集并上传到罗克佳华的数据中心,后者利用数据挖掘手段进行处理和分析。据悉,罗克佳华目前正在与一些大型电厂合作,通过云计算实时分析电厂脱硫、脱硝过程中各种反应物的添加量,以实现精细化的实时添加,帮助这些电厂降低脱硫、脱硝过程中的能耗。
“未来我们的目标是建设全亚洲最大的物联网数据中心,达到2万台物理服务器的规模,面向更多的服务领域。”李玮说。
前面提到的上海市卫生局,面对每天产生的1600万份病历,他们采用了基于英特尔的大数据解决方案,实现了病例的实时、系统性获取,通过这些数据分析出每位病人是否需要进行复查并采取下一步治疗措施,从而使得医院病例的复查率降低到30%,大大提高了上海卫生局的工作效率,也节约了医疗资源。
中国约有1000万辆卡车,它们是物流组成中的重要部分,急需更高效的路线和车辆调配优化,以降低成本。郑州市为了降低物流成本以及卡车运输中的事故率,部署了英特尔的智能交通解决方案,对卡车运输进行实时规划、实时监控、远程处理,提高了卡车和货物的匹配率,缩短了行驶时间,并降低了20%的严重事故发生率。这一系统构建在具有强大计算能力的数据中心里,平均每500辆卡车就需要1个至强处理器默默无闻的支持。
LSI公司高级副总裁兼数据中心解决方案事业部总经理Tom Swinford认为,数据中心从未像今天这样对企业业务产生如此巨大的影响。同时,企业必须寻求创新的技术和方案,以快速应对大数据的获取、整合和管理,从而帮助企业做出决策。
数据中心需要变革
我们必须承认,今天无论是云计算还是大数据,亦或是物联网、互联网应用,都已经超出了传统数据中心所能承受的负载,数据中心需要变革,需要创新,需要顺应发展趋势。
日前, Gartner公司研究总监Fabrizio Biscotti就表示,以物联网业务为例,这样的新兴应用,必然会对数据中心的发展提出更高的挑战。“物联网的部署会产生大量需要实时进行处理和分析的数据。而实时处理大量物联网数据将增加数据中心工作负载的比例,使得提供商面临安全性、容量和分析方面的新挑战。”
“由于设备数目庞大,再加上物联网数据超级大的规模、速度和结构,尤其是在安全领域、数据存储管理、服务器和数据中心网络方面,实时业务流程面临风险。数据中心经理需要在这些方面具有更多的前瞻性管理能力,以期能够积极配合与物联网相关的业务重点。”Gartner公司副总裁、著名分析师Joe Skorupa也说。
艾默生网络能源大中华区总包事业部副总裁丁麒钢在接受媒体采访时曾经表示,在巨大的市场变化情形之下,数据中心产业链正面临着一场革新。这场革新以促进产业链层次扁平化整合为基调,强化设备制造商、方案设计方、工程实施商、运营商之间的合作,重视全局规划和建设,淡化了基础设施与IT设施的界限,并以此达到“灵活变化、快速响应、智能运行、高资产利用率、低TCO的目标”。在此影响下,重视资源优化整合、进一步提高资源利用率、多层次的市场竞争以及实现无人值守运行,将成为未来数据中心发展的主要趋势。
云为数据中心提供了更灵活、高效、快速的响应能力。过去几年中,公有云迅猛发展,大量的数据中心在全球建立,而在这一领域中,使用者的需求已经从过去单纯的对云空间、运算速度的需求转变为智能化云计算平台。用户希望能够得到一个更为智能化,能够动态高效调控的云计算平台。英特尔公司高级副总裁、数据中心事业部总经理柏安娜说,英特尔期望从软件架构上寻求突破,将架构系统从静态变成动态,让封闭的架构变得更加开放。她介绍说,在云计算平台的架构上,英特尔提供了一个协调层,让云计算平台能够提供自动的调控功能,这个协调层可以将底层和应用层进行有机的结合。
世界上七大云服务提供商中有三个来自中国,他们是腾讯、阿里巴巴和百度。英特尔则是他们共同的合作伙伴,通过密切的合作,英特尔在后端提供架构上的支持。柏安娜在IDF14的演讲上说:“英特尔在架构上设立的这个协调层能够依靠软件帮助云计算平台更加动态、更加高效、更加以需求为基础来提供服务。”前面说到的淘宝“双11”活动中,传统的服务器与带宽很难应对那么大的计算峰值和交易,而英特尔与华为合作,在服务器和技术上帮助阿里巴巴通过云平台实现了创纪录的销售业绩。
英特尔认为,与用户转变IT运营思路相对应,包括数据中心在内的IT技术,也必须扭转创新思路,从用户的实际业务需求、与之相关的具体软件和IT服务出发,来打造产品、技术和解决方案。“英特尔正倾尽全力,在数据中心领域推动这一转变”,柏安娜表示:“目前英特尔最主要的尝试,就是推动迎合软件定义基础设施趋势的创新。”
篇2
关键词:企业;双活数据;中心技术;项目稳定性
中图分类号:TN919 文献标识码:A 文章编号:1671-2064(2017)03-0205-02、很多行业在使用信息技术以来,信息技术中存在很多企业或者是各部门重要的数据,如果这些数据丢失的话,就会给企业和各部门的发展以及日常运作带来很严重的问题,现在双活数据中心技术给我们带来了福音,提升了数据的安全性,使得我们的很多项目都可以有条不紊的进行。双活数据中心技术的容灾备份功能提升了数据的安全性,使得企业的项目运营更加稳定、可靠。下面我们就来具体谈谈双活数据中心技术提升项目企业项目稳定性的相关问题。
1 双活数据中心技术概念
1.1 双活数据中心概念
双活数据中心顾名思义就是存在两个数据中心,这两个数据中心没有主次之分,可以形成互补,这样可以保证数据的完整性。一个数据中心的数据存在问题时可以随时转换到另一个数据中心进行工作。双活数据中心的优势可以让企业不用设置灾备资源,这样就节省了一定的费用,提高了设备利用率。双活数据中心技术还有其他的优势,它提高了企业面对灾难的能力,使得企业的生产更加稳定。相对于传统的数据管理模式,这个技术的要求更高,而且双活数据中心的设计范围更广,他可以涉及到数据的各个层面,保证了数据的安全。
1.2 双活数据中心技术目标
双活数据中心技术目标的实现要确保满足以下几个条件才可以,下面我们就来说说技术目标实现的条件。
(1)核心业务跨地域集群。在传统的数据管理模式中核心业务的地域集群,可以扩展到双活数据中心技术中去,这样的话就可以防止传统的数据模式中的灾难发生和维护工作,我们的数据管理变得更加安全、可靠。
(2)虚拟化资源灵活部署。以虚拟机的方式布置任务,可以实现数据之间的连续性,保证了数据在受到危险的时候可以很快的作出反应,并且采取相应的措施,两个中心之间可以进行互补,若其中一个遇到危险的时候,就可以启用另一个中心的数据来帮助企业进行生产和工作,这样提高了我们企业应对灾难的能力,保证了我们的企业在遇到危险或者是数据丢失的情况下仍然可以按照正常的计划进行日常的生产经营,对我们企业来说是很有利的。
(3)数据异地复制。对异地数据的管理是我们双活数据中心技术的一个基础,在一个地方的数据丢失或者是受到危险时,我们以及时的对异地的数据进行复制,这样我们就可以最大程度上解决数据丢失带来的损失,我们也可以一定程度上弥补数据丢失的问题,使得我们的企业可以正常的生产和经营。
2 技术实现分析
(1)双活数据中心的架构。双活数据中心架构主要分为四个方面,分别是计算资源池、网络资源池、存储资源池、业务系统访问。计算资源池一般是用来生产和容灾备份的,他们都是主要用X86 CPU虚拟化技术,这项技术也是专门为这两个功能服务的。对于网络资源池来说,生产中心和容灾备份的网络技术之间是互联的,这样的设计使得各部门之间的工作能够有序的进行,保证了企业的正常生产和经营。存储资源池的建设也是考虑到了生产中心和容灾备份之间的关联性。所以他们在建设的时候就已用了同一种技术,这样做的好处是便于数据之间的传输和备份,对企业来说是很有好处的。业务系统访问主要是涉及到两个中心的原因,一般是通过均衡设计来满足两个中心的服务要求,这样在数据面临危险的时候就可以相互切换,这样我们的企业才能按正常的计划进行生产经营。
(2)数据中心容灾系统构成。数据级容灾:随着我们信息技术的发展,传统的数据级容灾已经不能满足企业数据的管理和双活数据中心技术的要求,我们就需要改革这方面的技术,使得我们的技术满足当前社会发展的要求,满足企业发展的日常生产所需。现阶段,资源整合一般都是“池化”,当前的双活数据中心技术的要求是各池之间可以进行同步,这样我们的数据才能更加容易传输,我们的双活数据中心之间才能灵活的转换,这样我们在面对一个中心的数据灾难时就可以应对了,我们企业的生产和经营也不会受到影响。
数据库容灾:数据级容灾是我们进行容灾备份的基础,数据级容灾的存在使得我们的数据的可靠性提高了很多,我们在企业的生产和发展的过程中急需要可靠地数据也需要有用的数据,所以仅有数据级容灾是不能满足当前实际发展需要的,所以就出现了数据库容灾,数据库容灾的存在保证了我们数据的可用性,使我们的数据库时刻保持活跃状态,这样我们在面对数据灾难时就可以更加从容的面对,对企业来说是很有意义的。
(3)数据中心互联。数据中心互联是双活数据中心的关键,也是基础,数据中心互联的基础上我们才能实现很多的数据之间的转换,我们才能安然的面对突如其来的数据丢失或者是其他数据问题,数据中心互联具备了几个条件,比如说异地复制的能力、存储网络延伸等。有了这些前提,数据中心互联工作才能进行,我们的双活数据中心技术才能在提升企业项目的稳定性上发挥重要的作用。
3 双活数据中心提升企业的稳定性
(1)双活数据中心提升了数据的稳定性。双活数据中心的存在大大提升了我们数据的稳定性,对于现在的很多企业来说都是很重要的。现阶段,随着科学技术的不断发展,我们很多行业的发展和日常的工作的维持都是需要使用到计算机的,计算机中的数据对我们来说就更加重要了,我们的计算机数据一般情况下是很安全的,但是我们也可能受到黑客的攻击、病毒的入侵以及我们人为的不正当操作。这些情况的发生对我们的企业来说都是一种损失,因为这些数据中可能包含了我们客户的信息,可能包含了我企业的很多重要信息,这些数据的丢失对企业的生产和日常经营都会造成很大的损失,甚至有可能会造成企业的破产,所以我们以前针对这方面的问题只是要求员工们需要小心谨慎从事,并没有付出实际的行动来给予保障。随着计算机技术的发展,出现了双活数据中心技术,这项技术的出现解决了我们很多问题,两个中心之间可以相互转换,这样我们其中的一个数据中心遇到危险时就可以利用另外一个来补充,这样我们就不会耽误企业的正常生产和经营。
(2)双活数据中心提升了企业项目的稳定性。双活数据中心技术的应用提升了数据的稳定性,这样我们企业的项目在进行的时候就可以更加的稳定,因为我们不再会因为数据的丢失而影响企业的正常生产。双活数据中心技术的容灾能力更强,当我们面临数据危险的时候总是可以化险为夷,我们的数据也不会丢失,大大提升了企业项目的稳定性。
4 结语
综上所述,传统的数据管理模式已经不能满足现在企业发展的需求,我们的企业发展面临很多的困难。这时候计算机技术的发展为我们带来了福音,双活数据中心技术的出现大大提升了我们数据的稳定性,我们的数据不再那么容易丢失,我们的企业项目的稳定性也大大提高,这对我们企业的发展来说是很重要的。在当前信息时代里,数据的重要性是不言而喻的,数据就是我们企业发展的关键,没有了数据我们的企业发展就失去了方向,所以说双活数据中心技术的发展是很有意义的,它大大提升了企业项目的稳定性,便于企业更好的生产和经营。
参考文献
[1]赵晓光,兰永平.基于虚拟化的双活数据中心技术实现[J].信息技术与信息化,2014,(5):270-271,273.
篇3
《全球高效数据中心最佳实践》调研针对目前全球数据中心运营与发展的状况,深入访谈了来自全球7个国家,25个行业的超过300位IT主管与CIO,其中包括来自中国的47位IT主管。此次调研目的是为了帮助IT管理者认知当前数据中心发展的状态,并帮助他们从同行身上学习相关知识与经验,以指导数据中心当前与未来的决策。通过对数据中心多项指标的综合对比分析,所有数据中心的效率状况被分为了由低到高的四类:基础型、整合、可用类和战略类。通过深入访谈与分析,此次调研发现全球数据中心正面临着如何实现更高效能的困扰。调查显示只有21%被调查的全球企业及组织机构的数据中心处于最高效的战略型数据中心水平,62%的受调查者仅具有中等效率,而17%的数据中心处于运行效率非常低的基础水平。
中国企业与组织的数据中心却体现出与众不同的高效性,在47位受访企业中,30家的数据中心处于高效运营水平,远高于来自于其他国家的受访者。这一比例都远远高于数据中心发达的美国地区,美国高效数据中心仅占25%。由此可见,在经济的快速发展的推动下,中国的数据中心也在短时间内经历了发达国家数十年的发展历程,并能够实现跨越式的发展。
数据还显示,与低效数据中心相比,高效的数据中心会将超过50%的资金投入到新项目及创新中,而不是用于维护已有的IT系统。而低效的数据中心在新项目方面的投入只占其总预算的35%,相反,他们会把65%的资金用于维护其现有的基础架构上。这意味着,高效的数据中心可以将资金投资到更加创新的项目上来,这也将进一步提升高效数据中心的能力,并为企业提供新的发展机遇。
篇4
关键词:绿色数据中心 物理层设备层数据层 能源效率指标 PUE 设备能效比 利用率
中图分类号: C37 文献标识码: A
绿色数据中心是数据中心发展到一定阶段的必然产物。它涉及数据中心的方方面面,包括整体建筑、机房、空调、UPS、服务器等设备以及应用系统和管理效率等。能源紧张是世界性的一个问题。建设绿色数据中心的一个主要目的也是为了降低能耗,这也符合整个社会发展的潮流。降低能耗是企业在每一个业务环节必须关注的问题,也是提高企业成本竞争力的有力保障。在确保业务稳定运营的同时,降低IT长期运营成本是每一个现代企业的任务。那么,当前企业的数据中心主要面临哪些方面的问题呢?
第一是物理环境层面的问题。物理层面主要包括机房、UPS、布线、监控、空调等。传统的数据中心普遍存在局部过热导致系统宕机的问题。传统的数据中心因设计不合理,制冷系统不能按实际设备的需要进行分配,导致总体能源浪费高且存在局部过热的问题;机房空调设置不合理,没有采用机房专用的精密空调,而是直接采用了家庭舒适性空调;电源线缆布放过细,存在重大的安全隐患;由于没有配备保障电源,机房的设备安全运行无法保证。
第二是IT设备层面的问题,主要涉及服务器和存储设备等。为了解决这些问题,可以采用服务器虚拟化技术或提高芯片的性能能耗比等。数据中心的电力密度在过去几年增长了数倍。在美国,1992年每机柜的功率为2.1千瓦,到2006年,每机柜的功率达到14千瓦。很多企业经常因电力限制而无法充分利用机柜空间。处理器能力的飞速提高,导致数据中心基础设施电源需求大幅增加。人们既要用电力来驱动系统的运行,又要用相当多的电力来驱动空调,以达到冷却的效果。
第三是数据应用管理层面的问题,主要涉及应用系统与数据库。为了解决这些问题,可以实施应用系统的整合和信息生命周期管理等。在传统的数据中心里,数据存储混乱,没有达到服务器与存储的最佳效能比,增加了数据管理的难度,也导致了许多潜在的危险。很多数据中心至今没有实施合理的灾难备份,这给突发事件的处理带来了很大麻烦。要最大限度地发挥员工、合作伙伴和客户的潜力,企业中的每个员工必须能够快速查找和访问信息。IT专业人员和数据库管理员必须应对无计划的应用程序停机、较差的系统可伸缩性和性能以及对数据安全性缺乏适当控制等状况,而过时的或效率低下的数据管理系统难以满足此需求。
对于绿色数据中心,业界的标准并不统一,没有形成可以参考的规范。笔者认为,绿色标准主要体现在两个方面。第一,数据中心整体设计的科学合理和设备的节能环保。绿色应该体现在通过科学的机房设计和建设,形成最优化的动力环境配置,实现初始投入的最小化,在保障机房设备稳定运行的同时,达到节能降耗的效果。此外,服务器和网络存储等设备也要实现效能比的最大化。第二,满足系统运营的基本要求,同时确保可扩展性。企业要合理规划数据中心的使用寿命,争取达到总体拥有成本(TCO)最小化。
数据中心是否是绿色,可以通过以下指标能判断:
数据中心能源效率指标用于评估一个数据中使用的能源中有多少用于生产,还有多少被浪费。在这方面,绿色网格组织的电能利用率PUE(Power Usage Effectiveness)指标影响力较大。PUE=数据中心的总用电量/IT设备的总用电量。数据中心电能利用率的含义是在用户总输入的电能中,到底有多少电能被馈送到IT设备上。
数据中心机房的PUE值越大,表明为确保 IT设备安全运行所配套的由UPS供电系统、空调系统、输入/输出供配电系统及照明系统等组成的动力和环境保障基础设施的功耗越大。因此, PUE值越小,意味着机房的节能性越好。目前,国内绝大多数的数据中心PUE值为3左右,而欧美一些国家数据中心的PUE平均值为2左右。
IT设备能效比=IT设备每秒的数据处理流量或每秒的数据吞吐量/IT设备的功耗。IT设备主要是指服务器、存储等设备。用户选用的IT设备的能效比越高,意味着IT设备每消耗1W的电能,所能处理、存储和交换的数据量越大。较高的IT设备能效比带来的另一个好处是,可以大幅度地降低与数据中心机房配套的UPS和空调系统的容量及功耗,从而达到节能、节省投资和节省机房安装面积的目的。因此,当用户选择服务器或存储设备时,不仅需要了解各种产品在满负荷运行时的功耗大小和效率高低,还要了解这些设备在轻负荷运行时的实际功耗大小和效率高低。
很多国家都有关于消费电子产品的能耗标准。我国已将服务器的节能指标纳入到国家节能规划体系中。从某种意义上讲,它标志着我国在推进服务器的节能方面已进入一个崭新的阶段。近年来,许多知名的IT厂商,如IBM、惠普、Dell、Sun和Cisco等,也纷纷推出各自的绿色数据中心解决方案。
IT设备的工作温度和湿度范围,如果用户选用了对工作温度和湿度都很敏感的IT设备,就不得不再花费大量的人力、物力去建立和维护耗能很大的空调保障系统。因此,用户应尽量选用具有较宽工作温度和湿度范围的IT设备。对于空调系统而言,在其他运行工况条件保持不变的情况下,如果将空调机的运行温度(例如回风口的温度)提高 1℃,就可将其运行效率提高3%左右。
机房基础设施的利用率指标主要包括关键电源及制冷设备的综合利用率、布线的合理程度、管理的人性化程度等。在机房的基础设施方面,与UPS相关的电源设备也是节能需要重点考虑的环节。
调查显示,尽管机房UPS的购买成本约占整个机房投入的5%左右,但是其电源消耗则占到机房总电耗的10%以上。要降低数据中心制冷的能耗,最根本的办法是减少外界的热量进入,同时减少内部热量的产生。为了减少外界的热量,要求数据中心建筑物必须符合相关标准,比如符合《公共建筑节能设计标准》(GB50189-2005)的要求。
绿色数据中心的本质是一整套设计和方法论,而不是简单地购买新一代产品。最高效的数据中心不一定就是绿色的。建设绿色数据中心需要从整体上把握,考虑位置、环境、物理建筑、基础设施、员工、系统建设和维护等众多因素。对于企业的IT负责人来说,绿色数据中心的效果就像是一条长尾--曲线的前端通常由服务器功耗、体积、空调功耗、不间断电源等"大指标"组成,而曲线的尾部则由空气动力设计、设备摆放位置、机柜和服务器之间的距离、维护难易程度等无数"小指标"组成。如果没有整体设计和方法论,即使抓住了全部的"大指标",也未必能达到理想的绿色效果。
1.基础设施与动力环境设计、安装合理,达到最优化
第一,数据中心应配置保障电源,至少配置N+1的UPS电源,确保市电中断以后,设备能正常运行。如果条件允许,应该再配置一台发电机,以避免因市电中断时间过长造成的不良后果。
第二,数据中心要配置机房专用的精密空调,并做好整体监控,并能根据机房环境和湿度的变化,随时对空调的运行进行调节。
第三,数据中心要建设专用的送风通道。数据中心的设备能耗大,发热量也大。在机房设置地板,建立专用的下送风通道是一种解决方案。
第四,要进行专门的规划。企业不仅要对业务的发展做好长期规划,还要对机房进行全面规划,然后再根据业务发展的需要分步实施。只有这样,机房的建设才能更规范,才不会出现电源线缆发热等情况。
2.重点关注耗能的各个部分,层层把关,严防超标
第一,要关注IT设备系统。据ICTresearch的统计,服务器、存储和网络通信等设备产生的功耗约占数据中心机房总功耗的50%左右。其中,服务器所占的总功耗约为40%,另外约10%的功耗由存储设备和网络通信设备均摊。
第二,要关注空调系统。据ICTresearch的统计,空调系统产生的功耗约占数据中心机房总功耗的37%左右。其中,约25%来源于空调制冷系统产生的功耗,另外约12%来源于空调送风和回风系统产生的功耗。
第三,要关注UPS供电系统。据ICTresearch的统计,UPS供电系统的功耗约占机房总功耗的10%左右。其中,约7%是UPS供电系统产生的功耗,另外约3%来源于UPS输入供电系统产生的功耗。
第四,要关注照明系统。据ICTresearch的统计,照明系统的功耗约占数据中心机房总功耗的1%左右。
3.关注数据中心的整体成本和环保措施,达到最大效用比
当前,建造绿色数据中心和建造普通数据中心的成本相差无几。许多所谓的绿色实施计划,比如采用更高效的服务器,实现更好的系统整合,采用虚拟化技术以及高效的冷却设备等,都已经成了当前数据中心建设事实上的标准。从这个角度讲,绿色数据中心与传统数据中心在建设成本上的差别并不明显。
篇5
“数据的增长是所有数据中心都在面临的一大挑战,使用传统、僵化的存储架构处理如此大量的数据会耗费大量成本和时间。通过智能的存储技术和工具,英特尔公司能够帮助企业减少需要存储的数据量,并改进使用数据的方式,以更好地支持全新服务。”英特尔公司高级副总裁兼数据中心及互联系统事业部总经理柏安娜说,传统服务器也在不断演进。当前,数据中心的运营者需要部署广泛的设备与应用,其中既有计算密集型数据库应用,也有面向消费者的Web服务。而且这些Web服务可从规模更小、能效更高的处理中获益。为满足数据中心运营者的这些广泛需求,英特尔制定了其用于优化工作负载的计划,包括定制的中央处理器(CPU)和系统级芯片(SoC)配置等。
日前,在英特尔“数据中心开放日”上,英特尔透露了其下一代服务器处理器产品路线图,该路线图基于其计划在2014年及之后推出的14纳米制程技术,可用来支撑大多数下一代数据中心采用的底层技术。这些产品主要面向微型服务器、存储和网络设备,并将带来更为广泛的低功耗、高密度解决方案,以支持Web应用与服务。
这些即将问世的产品包括了下一代英特尔至强处理器E3 产品家族(代号为“Broadwell”),其可用于以处理器和图形为中心的工作负载,如在线游戏和媒体转码等。这些产品还包括了基于下一代英特尔凌动处理器的系统级芯片(代号为“Denverton”),它将支持数据中心运营者进行更高密度的部署。此外,英特尔公司还透露了其未来路线图中的一个全新的系统级芯片,它将采用全新设计,并面向基于英特尔下一代Broadwell微架构(Haswell微架构的升级版)的数据中心。该系统级芯片将能够为高密度、极低能耗的系统中带来卓越性能,以帮助数据中心运营者有效满足日益增长的服务,以及移动性的需求。
英特尔同时还介绍了将于今年下半年的英特尔凌动处理器C2000产品家族。该产品家族包括专门面向低能耗、高密度的微型服务器和存储设备的处理器(代号为“Avoton”),以及面向各种网络设备的处理器(代号为“Rangeley”)。
篇6
目前数据中心的建设多奉行分开采购的策略,即服务器、存储、网络设备、平台及应用软件等各自独立采购,而后再集成的方式,类似于电脑时代的DIY,这在一定程度上降低了数据中心的初始购置成本。然而,随着云数据中心规模的不断扩大,业务需求不断变化,IT技术日趋复杂,企业将在后续运维/运营上消耗过多的人力物力,而IT效率低下也终将阻碍业务发展的步伐。
因此,企业更加希望购买到的是一个数据中心基础设施整体方案,这样IT部门才能够聚焦于对业务的敏捷响应,为公司业务提供增值,由成本中心转为创新中心、利润中心。于是融合基础设施就顺理成章地进入IT管理者的视野,近年来融合基础设施市场的快速增长也印证了这一趋势。根据Gartner预测,到2015年,将有近30%的数据中心将采用融合基础设施。
当前,业内融合基础设施的发展模式之一是以集成为主,比较常见于IT厂商之间形成的联盟。他们根据已有的经验和最佳实践,将来自不同厂商的产品预先集成在一起以构建融合基础设施,有些厂商还会集成一套定制化的统一管理平台。这无疑是在传统的基础架构之上迈出了关键的一步,为客户从繁琐的IT日常管理运维中减负。其不足之处则在于,基础部件来自各个厂商,无法实现高效协同;统一管理平台对于不同厂商产品的管理也存在局限;运维管理仍然要求具备各个厂商设备的技术知识及技术认证;售后以及故障诊断过程中存在厂商间的互相推诿等等。
篇7
1、如何应对管理数据的快速增长?企业在谋求进一步地降低成本与提高利润率的过程中,带来了数据以TB级别的增长速度,如何方便且快捷地管理大量的数据成了最头痛的问题。企业采用的最普遍的做法是增加存储设备或者增加服务器来进行管理,但是这种做法同时也带来了更多附带问题。
2、如何控制数据中心的能耗?企业增加设备的同时,必然需要增加人力、物力、财力的投入,这同时增加了数据中心的能耗。而这样的情况,与“绿色存储”的概念是背道而驰的。
3、如何快速做好快速的备份和恢复?企业渐渐发现,传统的备份和恢复已不能满足要求。磁带用来备份大量永久性数据还能发挥一些作用,但是用它来恢复数据其速度是让企业无法忍受的。
4、如何提高IT员工的工作效率?很多企业的劳动密集型的人工任务降低了IT员工的工作效率。
Gartner的研究也表明,如今的企业IT部门都希望能以最少的资源创造最大的效益,这使得既要管理基础架构的复杂度、又要满足更严格的服务要求并提高员工生产力变得难上加难。客户需要的是能够快速响应业务部门要求,让劳力密集型工作变得更加自动化,使IT基础架构不断扩展、更加透明。
为了帮助企业解决其所面临的诸多挑战,众多存储厂商一直都倾力打造完美虚拟存储平台,以提高服务水平,改善设备利用率和数据中心的电力、空间及散热效率。NetApp公司就是其中一家。NetApp的网络存储技术融合于VMware的全线数据中心虚拟化软件中,从而加快了数据中心的转型,为客户创造效益。
NetApp大中华区总经理柯志明向记者介绍了近期推出的这三款新软件的功能:
SnapManager for VirtualInfrastructure它能够为虚拟机提供自动化数据保护和恢复,以保护用户的VMware虚拟环境,同时,该软件也极大地降低了手动备份和恢复造成的人为错误,消除了由传统主机服务器备份和恢复造成的中断和性能方面的影响,显著提高了服务器的利用率,使用户能够更放心地进行数据保护。
篇8
在日前PMC举办的“闪存2.0加速数据中心存储变革”论坛上,PMC企业存储部NVM方案总经理Derek Dicker表示,SSD在企业级市场飞速增长,大大超越了传统旋转式磁盘的市场发展,“PMC解决方案的设计理念是优化性能、降低成本。”
如何实现这两个目标,Derek Dicker说,PMC是引领软件定义闪存(SDF)理念的控制器厂商。软件定义闪存理念出现之前,传统的SSD解决方案是一种固定的模式,固件、控制器、内存都没有什么变数。但随着大数据的发展,SSD方案需要适应各种应用需求,因此催生了软件定义闪存的出现。PMC所开创的软件定义闪存是一种基于控制器的全新闪存架构,它使用基于闪存的SSD来运行软件及固件,以实现从冷存储到高性能SSD及高性价比高速缓存等不同需求。通过利用控制器上的固件针对不同的应用模式进行优化,让闪存发挥出最大效益。据Derek Dicker介绍,在百度百科中,“软件定义闪存”词条就是PMC贡献的。
浪潮作为国内服务器厂商,更看重的是如何让整机系统足够弹性,以符合规格的更新换代,不同的应用场景以及用户需求的多元化。浪潮集团互联网行业部资深架构师李璀认为,从系统设计的角度来说,使用全SAS硬盘,或硬盘与SATA SSD的混合存储,甚至PCIe SSD,都需要在系统设计上做细致的规划和考虑,他更关心的是服务器的设计如何发挥出SSD的性能优势,使整体系统设计与SSD的性能相匹配。李璀表示,浪潮推出的Switch产品就是为了解决SSD的发展和主机发展不同步的情况。服务器的设计遵循摩尔定律,在新规格SSD出来时会有不匹配的情况,通过Switch转接卡的形式让整机支持PCIe NVMe SSD,这样就让原有的系统设计更具弹性,用户也得以通过原有的服务器使用新一代的闪存设备。据介绍,浪潮在天蝎整机柜的产品以及一个通用服务器产品线都将支持NVMe规格的SSD。
NVMe是一个针对使用PCI Express SSD的企业和普通客户端系统开发的可扩展的主机控制芯片接口标准,最近两年得到业界广泛关注。Memblaze高级战略合作总监张泰乐博士认为,SSD未来的两大趋势,一是SATA SSD向PCIe SSD的发展,二是混合存储阵列将走向全闪阵列。因此,他表示,Memblaze的产品演进将明确支持基于NVMe的PCIe SSD, 且各大OEM厂商以及软件生态圈都已经明确支持NVMe标准。张博士介绍说,Memblaze最新推出的PBlaze4 PCIe SSD系列产品采用了PMC的控制芯片,PMC是Memblaze重要的合作伙伴,具备优秀的芯片设计能力,通过其SDF功能,Memblaze能将自己的管理算法结合到控制器中,以达到更好的性能以及更低的成本。张博士透露说,PBlaze4未来将有两种产品形态,即卡和盘的形式。
软件定义闪存是一种基于控制器的全新闪存架构,通过利用控制器上的固件针对不同的应用模式进行优化,让闪存发挥出最大效益。
篇9
(上海儿童医学中心,上海200127)
摘要:目前,计算数据中心设计动态数据聚集算法,通过仿真实验进行验证分析,表明动态数据聚集算法能够保障计算数据中心的服务质量,提高计算机设备稳定性,提升计算机数据中心的服务质量,并且还可以在不同时段动态分配数据使用,实现有效的聚集数据分配模式,从而确保系统计算存储节点可以轮流运转,提升计算机数据中心区域温控设备的精度,充分利用计算数据中心资源,满足用户的实际服务需求,降低计算数据中心系统动态数据分配能耗。
关键词 :计算数据中心;动态数据;聚集算法;仿真实验
中图分类号:TN919.2?34 文献标识码:A 文章编号:1004?373X(2015)17?0142?02
本研究针对当前计算数据中心的动态数据分配及数据分配方法中存在的问题,其局限性、公式复杂、算法运行效率低等弊端,提出动态数据聚集算法,并结合计算数据中心实际情况进行改进,仿真研究动态数据聚集算法在计算数据中心的应用效果。
1 浅析动态数据聚集算法
动态数据聚集算法中,聚类是数据挖掘中一类重要的问题,在许多领域有其应用之处。聚类的定义是:给定一个由许多数据元素组成的集合,将其分为不同的组(类、簇),使得组内的元素尽可能相似,不同组之间的元素尽可能不同[1]。在动态数据聚集算法中,其数据流具有以下特点:数据实时到达,数据到达次序独立,不受系统控制;数据量巨大,不能预知其大小;单次扫描,数据一经处理,除非特意保存,否则不能再次被处理。由于计算机数据中心数据流的特点,要求数据压缩表达,并且可以迅速、增量地处理新到达的数据,要求该算法可以快速、清晰地识别离群点。
2 计算数据中心应用动态数据聚集算法实现对动态聚类算法中的数据流,在每一个时刻,动态聚类算法的在线部分连续地读入一个新的记录,将多维的数据放置到对应多维空间中的离散密度网格。在第一个gap时间内产生了初始簇[2],然后,算法周期性地移除松散的网格以及调整簇,由于不可能保留原始数据,D?Stream将多维数据空间分为许多密度网格,然后由这些网格形成簇,如图1所示。
文本中,假设输入的数据有d 维,在计算机数据中心空间中定义数据:
S = S1 × S2 × … × Sd
在动态数据聚集中,可以将d 维的空间S 划分成密度网格。假设对于每一维,它的空间是Si,i = 1,2,?,d被分为pi 个部分。
3 计算数据中心动态数据聚集算法仿真研究
3.1 仿真试验环境搭建
对于计算数据中心动态数据聚集算法,针对动态数据聚集算法实施仿真试验,在一台带有1.7 GHz CPU和256 MB内存的PC上进行,用VC++ 6.0以及一个Matlab图形接口实现动态聚类算法仿真。研究其算法性能及结果准确性,数据中心将10个节点存放于一个机架上,环境参数见表1。
在动态数据聚集算法仿真试验中,可以设置:Cm =3.0,Cl = 0.8,λ = 0.998,β = 0.3,使用两个测试集。第一个就是测试数据集,也是一个真实的数据集合KDDCUP?99,它包含由MIT 林肯实验室收集的网络入侵数据流。也使用人工数据集测试动态聚类算法的伸缩性。这个人工数据集包含的数据数量从35 000~85 000不等,簇的数目被设定为4,维度的数目范围[3]从2~40。在动态数据聚集算法仿真试验中,将数据集的所有属性规格化为[0,1]。每个维度被均匀地分为多个数据段,每个段的长度为len。
3.2 仿真结果评估
将评估计算数据中心的动态聚类质量与效率与传统计算数据中心的算法进行比较,本文算法能提高算法时间、空间效率,对于计算中心高速的数据流不损失聚类质量,有独特的优势,准确地识别实时数据流,并实施演化行为。计算数据中心动态聚类算法与传统数据分配算法相比,数据准确性得到提升,为98.2%,常规数据分配准确率为83.6%,有明显优势(P<0.05)。计算数据中心动态聚类算法的应用,可以提升计算数据中心系统的稳定性。
篇10
【关键词】云计算 大数据 云数据中心 安全体系
一、引言
大数据时代,原有的信息资源处理手段已经不适应迅速增大的数据量级。大数据依托网络技术,采用数据挖掘、关联分析等技术手段对分布式存储的异构海量数据进行处理。无论是网络环境、计算平台、还是存储载体,都分属不同的信息系统。大数据进一步加剧了网络空间中防御与攻击的不对称性,大数据信息安全主要体现在处理系统、过程的安全,而传统的信息安全防护措施多集中在“封堵查杀”层面,难以应对大数据时代的信息安全挑战。因此应加快构建多层次、高质量的大数据纵深防御体系结构。加强大数据信息安全保障能力,是解决大数据安全的唯一出路。
二、大数据安全挑战
基于大数据环境下所带来的安全挑战包括:
1、应用安全防护:大数据环境下的应用防护风险,包括资源滥用、拒绝服务攻击、不安全集成模块或API接口及WEB安全;2、虚拟化环境安全:基于云计算和虚拟化技术的云计算数据中心为大数据提供了一个开放的环境,分布在不同地区的资源可以快速整合,动态配置,实现数据集合的共建共享。网络访问便捷化和数据流的形成,为实现资源的快速弹性推送和个性化服务提供基础。然而平台的暴露,使得蕴含着海量数据和潜在价值的大数据更容易吸引黑客的攻击。虚拟化环境安全成为大数据安全的重要威胁。3、移动接入安全:BYOD-移动接入安全,包括身份假冒和信息劫持等。4、安全与大数据融合:恶意的内部员工和数据隐私保护面临威胁。
本文分别从上面四个方面来分析大数据安全技术体系的建设办法,构建大数据纵深防御体系结构。
三、大数据安全技术体系
大数据应用安全防护主要在应用防护区部署虚拟化综合安全设备,包括DDOS、防火墙、IPS和WEB防火墙(WAF)等,同时部署漏洞分析系统,进行安全评估和渗透测试。
大数据虚拟化环境安全主要通过虚拟化防火墙TopVSP(Vgate、TAE、TD)和虚拟机管理器安全,即外部防火墙。实现虚拟化环境的性能优化和安全策略迁移等。
移动接入安全从下到上分为统一接入控制、数据安全及威胁防护和全生命周期设备管理三层。其中统一接入控制层在终端接入区使用身份认证及授权和虚拟应用及虚拟桌面,在网络接入区使用VPN加密,在业务服务区使用远程锁定、数据擦除、备份与恢复、GPS定位和自动报警灯管理器后动来实现。全生命周期设备管理包括资产接入、部署、运行和销毁全流程管理,资产接入包括资产的发现、注册和初始化;资产部署主要包括安全基线制定和配置及策略执行;资产运行包括资产的挂失、锁定、密码重置、定位、备份与恢复、报警等;数据销毁采用远程应用卸载和数据擦除等技术。
基于大数据融合下的安全云,主要实现方式是通过安全检测与大数据技术相融合,利用云计算能力及大数据处理机制实现信息访问的审计、安全威胁智能的发现、隐私数据的保护。主要包括安全监测与预警和安全审计及隐私保护两方面内容。安全检测与预警主要是通过7×24监控和运维,对事件进行收集、处理和存储,继而进行关联分析、威胁检测、风险计算和风险分析,将分析的结果通过短信或者邮件通告,并形成相应的工单、知识库和相应的报表进行派发、流转和处置。安全审计及隐私保护主要是为了避免内部恶意员工导致的云数据中心信息泄露,主要通过云安全设计平台实现大数据的审计和取证,主要的审计技术包括业务访问审计、数据库审计、安全运维审计和数据隐私保护审计等。