高性能计算范文

时间:2023-03-26 08:19:31

导语:如何才能写好一篇高性能计算,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。

高性能计算

篇1

“当今全球高性能计算系统的计算能力正在飞速发展,这与处理器、编译器和软件等多方面综合因素是密不可分的。英特尔在光互连方面以及硅光学方面都走在世界前沿,今后,英特尔会在南能计算市场有更多动作。”英特尔公司高级副总裁兼数字企业事业部总经理帕特基辛格博士在今年4月上海IDF上曾经明确了英特尔在高性能计算方面的方向。

时隔半年,当11月1日,中国软件行业协会数学软件分会、国家863高性能计算机评测中心和中国计算机学会高性能计算专业委员会三家联合正式对外《2008年中国高性能计算机性能TOP100排行榜》时,帕特基辛格的“预言”实现了。

报告显示,英特尔仍然是TOP100的最大家,基于英特尔处理器的系统数量占到了71%,这与英特尔在TOP500中的份额非常相似、在6月份的TOP500中,英特尔占据了73.5%的绝对优势。

与此同时,“在高性能计算领域,英特尔的软件同样发挥着很重要的作用”。英特尔公司全球副总裁王文汉对软件在高性能计算领域中的价值表示充分肯定。

背后的力量

与以往不同,在《2008年中国高性能计算机性能TOP100排行榜》中我们看到了联想、浪潮、曙光、宝德等更多国产厂商的身影,而在这些厂商的背后有着一只强而有力的软、硬件推手。

在四年前,当时的联想正欲在高性能计算领域有所突破,“当时联想要做一个非常大的打印机,这部打印机需要一个很重要的测试程序叫linpack,这一程序将决定整部机器的效率。于是英特尔从美国调来了这一方面的专家。”王文汉讲道。

鉴于在以往其他地区的经验,这样的项目以这位博士的水平仅仅需要三天的时间,但是,当他来到中国后才发现由于当时中国的网格计算水平发展与国际还有一定的差距,在很多技术细节方面缺乏一定的环境支撑,他必须从每个细节开始工作,于是他被“搁浅”在了中国。

有意思的是,这位博士很老实,他出门的时候只向他妻子“请了三天的假”,可是过了三天,又过了几个三天他还是回不去,由于“初来乍到”博士并不清楚如何在国内给他的妻子挂电话“请假”,无奈之余只能求助。

电话通了,假也请了,博士塌实了,联想的高性能计算机也完成了自己的关键测试。

“在高性能计算领域,我们与国内的多家厂商都有合作,且合作的时间很久。”王文汉介绍到。“也许正是有了类似英特尔这样国际企业的帮助与支持,国内的高性能计算领域才有了长足的进步。”

在《2008年中国高性能计算机性能TOP100排行榜》公布的同时,TOP100排行榜创始人之一、中科院软件所研究员张云泉博士这样感叹:“尽管在核心部件上,我们对国外厂商的依赖性很强,但在此次榜单中,国产机入围数明显增多。”积极与政府和教育合作

如同与联想、曙光、浪潮等国内的企业合作,英特尔在国内的政府、教育等领域也从未停止过自己的脚步。

2002年,教育部发起建设“中国教育科研网格”(ChinaGrid)的工作,该项目在十五“211”二期支持下启动、得到国家科技部863南性能计算重大专项支持的公共服务体系。

2003年9月,英特尔(中国)有限公司与中国教育部签署了一份合作谅解备忘录。双方决定携手构建国家高等教育网格计算平台和网格的研究和应用。

随后,ChinaGrid在公共中间件平台(CGSP ChinaGrid suppoftPlatform)上取得突破性进展,Intel在CGSP与GPE的互联互通研究等方面与国内的各高校展开了更为广泛的合作。

在中国,短短的三年,从06年当初五个大学参与,到今年08年8月份为止达到102个大学参与进来。多核大学计划的内容,包括了英特尔给这些学校建立多核的实验室,包括教师培训。

在清华,在武汉大学还有在浙江大学,英特尔分别举办了三期,这样把今年60多个新学校教师培训都开展了,在这个基础上,英特尔将会继续跟踪学校课程的开展情况。

8月份,在厦门,英特尔首次把这102所大学高校教师,大概132组的教师汇集在一起,让这些优秀的大学,能把他们开课的经验和大家分享,也请英特尔工程师把最新的技术给教师做一些培训。这也是我们多核计划的一个内容。

8月20日,由中国教育科研网格ChinaGrid工作组主办,兰州大学信息学院承办的“中国教育科研网格ChinaGrid第三届学术年会(ChinaGrid 2008)”,在甘肃省敦煌市举行,王文汉博士再次阐述了英特尔推动我国高性能计算发展的决心,“除在系统优化方面,英特尔还将为ChinaGrid提供更多的软件工具以及更好的技术支持。”

硬件其实是软件

“目前,国际上,英特尔、AMD已经在多核、异构方面进行不断的创新!”张云泉认为,国内目前的主要研发方向应该向国际靠拢,与此同时,硬件环境的不断变迁为软件的发展带来了挑战,同样也提供了不断向前迈进的动力。

在提及高性能计算的多核架构对软件发展的影响时,王文汉讲起了自己的亲身感受。1991年,王文汉到英特尔接到的第一个项目就是设计芯片,当时叫超能奔腾。此时的王文汉已经拥有了两年的工作经验,这两年中,王文汉始终认为硬件就是硬件。

但经过了这个项目后,他却得到了一个很难理解的道理――硬件其实是软件。在设计硬件的过程中,要用高级语言来编。

在编过之后,多大需要缓存,多长CPU线程,作为研发人员要将这些一一汇总。“但实际上是我们可能几百个工程师,每个人负责一块一块的弄,编程序一样的编芯片,”王文汉认为,硬件本身其实就是软件,软件可以辅助设计人员研发不一款硬件产品,同时这一硬件产品又为其上的软件提供一个更好的开发平台。

篇2

走产业化道路

曙光创业初期,有哪些事情令你印象深刻?

当年我们去美国“洋插队”、学习超算技术时,条件很艰苦,就是租了当地老百姓的一间普通住房,利用客厅当工作间摆机器,大家每天工作十五六个小时。因为我们都没有做过机器,只是会使用计算机,却没有制造过计算机,很多东西都需要靠自己摸索。我们曾把机器上Unix操作系统的数百万行的语言程序分给每人解读,一人大概分几十万行,要把算法和结构图都画出来,搞清楚超级计算机到底是怎么运作的。这种从无到有的学习过程是非常大的挑战,还好我们不辱使命,完成了任务。

高性能计算机在今天的应用情况如何?

和10年前相比,超算应用已经发生了天翻地覆的变化。10年前,只有专业人士才会用到高性能计算,但在今天,各行各业都会用到。比如飞机制造中要通过空气动力学测算来制作飞机外形,这就需要超算的帮助;电影《阿凡达》的制作,就是借助超级计算机来做虚拟与现实设计;在医药领域和生物、基因研究方面,高性能计算也都起到十分重要的作用。据我了解,最近北京气象局就新买了一套曙光机,目的是去做PM2.5的预测,这就说明高性能计算其实和大众生活息息相关。

在行业应用方面,曙光超算做得很出色的领域是石油勘探。如果在勘探范围内找不到油田,就可以用曙光高性能计算做一遍测算,把油田“算”出来。现在我们国家在非洲、南美洲等很多地方去打油田,很多时候都用曙光的机器帮忙。虽然曙光机器在国外市场销售得并不多,但被我们自己的企业带出去了很多,这从一个侧面反映出了曙光超算的实力。

曙光的超算之路有怎样的特点?

曙光是以产品化为目标,追求让更多的人用上高性能计算机,让它真正在经济活动、社会发展中发挥作用。所以,产业化是曙光选择的道路。

逐步增加发言权

互联网公司现在是高性能计算的重要客户,曙光如何把握这个行业?

现在淘宝网在光棍节促销那天要处理1.5亿笔交易、350亿元的交易额,达到了世界第一的水平,它的后台则是按600亿元的交易额在做准备,这就需要强大的超算能力的支持。而我们这些国产厂商的高性能计算机在其中起到了重要的运营支撑作用,所以说我们自己的超算能力已经达到了国际领先水平。在节能、能耗方面也跟国外品牌没有太多的差别,我们会继续把技术和服务做好,为互联网以及其他行业服务。

网络大提速、移动智能终端的普及,带来海量数据、多样化的信息服务,以及复杂的数据聚合与交互等未来信息服务的巨大压力,势必会落在以高性能计算为基础的互联网、云数据中心和大数据上,这为高性能计算机发展带来了新契机。但同时我想呼吁一下,互联网公司要改变他们的一些思路和行为方式。现在国内的几个大互联网公司其实不缺钱,因为他们每天的广告费都会达到上亿元,他们也有责任和义务来带动中国信息产业的发展,促进信息消费。然而我觉得他们这方面做得不太够。在与互联网公司客户谈生意时,他们往往习惯性地拿出压价做法,让所有厂商展开价格竞争,导致销售价格比成本还要低10%、20%。这种做法如果成为普遍现象,将导致厂商没有任何积极性去做创新,对产业的发展很有伤害,最终也将不利于互联网公司本身的发展。

“棱镜门”事件对曙光这样的中国本土高科技企业而言是否是个好消息?

这是一个利好消息,但是要想赢得市场,不能指望行政命令来要求用户都使用国产机器,而是依靠市场竞争来争取自己的空间。比如在金融行业,如果银行说,出于国家信息安全的考虑不用外国的机器,这就很难办到。因为很多银行用国外著名品牌的机器已经用了很多年,上面那些软件跑了几十年,当时写的语言改都没法改,想把它们一下子全部换成国产设备显然是不现实的,肯定需要一个过程。所以,当我们说自主可控,说技术不能掌握在别人手里,是一个需要时间去实现的长远目标,需要我们自己长期的努力去不断积累自己的知识产权和自身实力,来逐步增加自己的发言权和竞争能力,而不是一蹴而就的事情。曙光就是靠一步步地往前走,逐步地去替代国外品牌,而只要我们不断前行,目标终有一天会实现。

篇3

高性能计算集群逐渐替代专用、昂贵的超级计算机对大规模并行应用构建原型、调试和运行。

基于PCs或工作站的高性能计算快速部署及其可靠性和可管理性研究,对高性能计算集群在科学研究和工程计算等领域的应用,促进高性能计算技术的应用方面具有深远的意义。

本文以OSCAR集群为实例,部署一个五结点的集群环境并运行简单的并行测试例子。

关键词:高性能计算;集群;OSCAR;MPI;并行计算

中图分类号:TP312文献标识码:A文章编号:1009-3044(2008)14-20971-03

1 引言

自20世纪90年代早期以来,昂贵而特制的并行超级计算机逐渐向由单个或多个处理器的PCs或工作站[1]组成的价廉、通用、松耦合的系统转换,而促成该转换的主要驱动力是高性能工作站和网络部件的快速商品化。这些技术的发展使网络化计算机(PCs或工作站)成为并行处理的理想工具,从而导致了普通商品化超级计算机的出现。

自1994年美国航空航天局(NASA)的Goddard航天中心采用16个66MHz 处理器的PCs和10Mbit/s 以太网组成了第一个计算机集群系统(Beowulf Cluster)[2]以来,随着计算机制造技术的飞速发展,硬件设备逐步实现商品化和标准化,PC机的性能越来越高而价格越来越低;同时开源的Linux操作系统内核及集群工具套件(Cluster Toolkit)也日趋成熟稳定,高性能计算集群逐渐发展起来,成为主流的高性能计算平台,在2007年11月Top500的分析报告中,采用集群架构的超级计算机系统已占81.2%[3]。

使用高性能计算集群对并行应用构建原型、调试、运行逐渐替代使用专用,特别是昂贵的并行计算平台。一些集群软件工具套件已经具有很多的整合性、可管理性、易配置,例如OSCAR[4, 6]等工具套件。研究基于PCs或工作站的高性能计算集群快速部署及其可管理性和可靠性研究,对高性能计算集群在科学研究和工程计算等领域的应用,促进高性能计算技术的应用方面具有深远的意义。

2 集群系统架构

高性能计算集群是一种并行处理系统,由多个连接在一起的独立计算机组成,像一个单独集成的计算资源一样协同工作[5],用来解决具有重大挑战的问题。集群是全体计算机(结点)的集合,这些计算机由高性能网络或局域网物理互连。一般情况下,每个计算机结点是一台PC机、工作站或SMP服务器。重要的是,所有集群结点能一起协同工作,如同一个单一集成的计算资源提供服务。集群概念带来了许多好处,其中重要的是能用性、可用性、可扩展性和性能价格比。

从硬件架构看,集群结点可以是PCs、工作站、SMP服务器,甚至子集群。但集群各结点在保持本身计算机系统完备性的同时,能够相互协作,形成单一、集成的计算资源。典型集群系统包括下列结构组件[5],如图1所示。

多个高性能计算机(PCs、工作站或SMP);

分层或微内核结构的操作系统;

高性能互连网络;

网络接口卡;

快速通信协议与服务;

含单一系统映像(SSI)、高可用性(HA)工具和资源管理与调度的集群中间件;

诸如消息传递接口(MPI)[8]等并行编程环境与工具;

串行、并行或分布式等应用。

3 集群系统构建

2001年,Open Cluster Group开源集群应用资源(Open Source Cluster Application Resources,OSCAR)。该集群工具套件具有以下特点:统一框架中安装、配置和管理集群;基于向导(Wizard)的集群组件安装;统一的结点映像。OSCAR集群工具套件提供了构建和运行一个高性能计算集群所需要的工具。在安装OSCAR的同时也默认安装了并行编程环境MPI、PVM及作业调度系统PBS等软件包。其中系统安装套件 (SIS),集群控制工具套件(C3),环境切换器(switcher)和OSCAR向导用于集群系统的安装和配置。SIS是一个基于映像的安装包,可通过使用SIS来引导节点的安装:内核引导,磁盘分区,和操作系统的安装等。C3方便并行命令的执行,使用户输入的命令可同时在所有的节点上运行。用户可以用环境切换器来定制环境变量。OSCAR向导提供了一个图形化界面来帮助用户完成集群系统的安装和配置。

本研究课题以5台PCs结点,100Mbit/s以太网互连网络搭建一个OSCAR集群环境。

(1)硬件环境

管理结点:一台Intel Pentium3 2.0GHz处理器,256MB内存,20GB硬盘存储。

计算节点:四台Intel Pentium3 2.0GHz处理器,256MB内存,20GB硬盘存储。

互连网络:100Mbit/s 以太网交换机。

(2)软件环境

操作系统:Red Hat Enterprise Linux 4。

OSCAR版本:5.0,已集成以下软件工具包:

Open MPI 1.1.1:并行编程环境;

Maui 3.2.6p14 + Torque 2.0.0p8:作业调度系统;

SGE 6.0u8:作业调度系统:

LAM/MPI 7.1.2:并行编程环境;

MPICH 1.2.7:并行编程环境;

Ganglia 3.0.3:集群状态监控系统;

SC3:扩展的C3集群管理工具;

Netbootmgr:管理结点PXE启动;

sync_files 2.4:控制异构集群中用户的数据库;

packman 2.8:包抽象管理器;

systeminstaller-oscar 2.3.1:应用packman创建映像image;

Systemconfigurator 2.2.7-12ef:安装配置框架。

OSCAR安装向导[7]提供了一个图形化界面来帮助用户完成集群系统的安装和配置。如图2所示。该向导将引导用户方便快捷地进行集群的安装和配置,用只需要按步骤点击向导按钮,每一个步骤都会有按钮,点击显示该步骤的目的。

按照此向导逐步执行,最后配置结点从网络启动,等待所有的结点从网络启动并成功加载映像重启之后,安装向导执行完毕,OSCAR集群系统的安装完成。

4 简单并行例子

执行下面一段并行C语言程序hello world,测试OSCAR集群环境。该程序打印参与运算的结点主机名及进程ID,存储为hello.c,运用mpi命令进行编译、运行:

#mpicc Co hello hello.c

#mpirun Cnp 4 hello

Hello World! Process 1 of 4 on oscarnode1

Hello World! Process 3 of 4 on oscarnode2

Hello World! Process 2 of 4 on oscarnode3

Hello World! Process 0 of 4 on oscarnode4

#include "mpi.h"

#include

#include

int main(int argc,char *argv[])

{int myid, numprocs;

int namelen;

char processor_name[MPI_MAX_PROCESSOR_NAME];

MPI_Init(&argc,&argv);

MPI_Comm_rank(MPI_COMM_WORLD,&myid);

MPI_Comm_size(MPI_COMM_WORLD,&numprocs);

MPI_Get_processor_name(processor_name,&namelen);

fprintf(stderr,"Hello World! Process %d of %d on %s\n",

myid, numprocs, processor_name);

MPI_Finalize();

}

5 结论

本文在研究高性能计算集群的发展技术及体系结构的基础上,以OSCAR集群为实例,快速部署一个五结点的集群环境并运行简单的并行测试例子。高性能计算集群将逐渐替代专用、特别是昂贵的超级计算机对大规模并行应用构建原型、调试和运行。基于PCs或工作站的高性能计算快速部署及其可靠性和可管理性研究,对高性能计算集群在科学研究和工程计算等领域的应用,促进高性能计算技术的应用方面具有深远的意义。接下来的工作将集中在集群环境的可靠性及可管理性研究,是高性能计算集群更好地为科学、工程计算服务。

参考文献:

[1] Thomas E. Anderson, David E.Culler, David A. Patterson et al., "A Case for NOW (Networks of Workstations),"IEEE Micro, February 1995,pp.54-64.

[2] Beowulf Project, /.

[3] TOP500 Report,available from/.

[4] OSCAR Project, /.

[5] 郑纬民,等,译.[美]Rajkumar Buyya,编.高性能集群计算:结构与系统(第1卷),电子工业出版社,2001.

[6] Timothy G. Mattson,"High Performance Computing at Intel: The OSCAR software solution stack for cluster computing", IEEE Proceedings of the 1st International Symposium on Cluster Computing and the Grid (CCGRID’01).

[7] OSCAR Administrator’s Guide, /.

篇4

去年年会上公布的国内高性能计算百强中,国产系统已经雄踞前三名,而且第一名的天河一号系统位列当年的全球高性能计算500强的第5位。在今年10月28日~29日举办的年会上,国产系统已经囊括了前7名,而经过优化升级后的天河一号夺得将于今年11月的全球500强桂冠几无悬念。

年会也给我们带来一些思考。作为国家竞争力组成部分,高性能计算不仅面临着在性能上不断突破的挑战,还面临着把这种超级计算的能量在更多的应用领域释放出来,以满足各行各业用户需求的压力。

超级摩尔定律

在过去的30多年里,高性能计算的每秒浮点运算性能以每10年提高1000倍的速度,几近线性地完成了从百万亿次(106)、10亿次(109)、万亿次(1012)到千万亿次(1015)的跨越,预计在2020年之前,高性能计算将会再提高1000倍,从而突破百万万亿次(1018)大关。

在高速发展中,高性能计算完成了从专用CPU到以x86通用CPU为主、从单核到多核、从向量机到集群、从由CPU组成的同构系统到以CPU和GPU共同组成的异构系统的提升。如今,系统中各节点间的通信网络也正在完成从局域网向InfiniBand的过渡。

功耗问题在性能不断提高过程中变得日益突出,令普通的PC用户难以想象。以天河一号为例,如果采用CPU的同构架构,每天仅电费开支就会超过15万元,而如果采用CPU+GPU的混合架构,在同样性能指标下可以节省2/3的功耗。

作为混合架构的新贵,GPU无疑成为本次年会报告中涉及范围最广的热门技术。虽然GPU的浮点运算能力是CPU的数十倍,但功耗相当,因此同样存在因为发热而引发的“0”“1”翻转问题。这在GPU图形应用中只是暂时影响一个像素,而在高性能计算中意味着整个计算的失败,甚至用户无法确认每次运算结果是否正确。记者注意到天河一号、星云等国产高端系统都采用了具有纠错功能(ECC)的GPU,从而确保了计算结果的可靠性。

高性能计算高速发展的背后是美、日、中三个高性能计算机强国之间的激烈竞争。

“我国在高性能计算机研制方面取得了长足进展,在性能指标上达到世界领先,但竞争还是非常激烈。今后两年,美国和日本将会有若干万万亿次高性能计算系统投入使用,这将拉开美日与我国的距离。”北京航空航天大学教授钱德沛在谈到我国高性能计算面临的挑战时表示:“我国在CPU、互连、I/O、系统软件、算法等核心关键技术上还有很大差距,缺少跨学科的人才,多学科协作研发尚未形成风气,应用与世界先进水平差距较大,在可持续发展上需要政府持续投入和科技界与工业界的持续努力。”

应用应该无处不有

“高效能仿真技术可以研究已发生、尚未发生或设想的现象,可以研究难以达到的微观、中观或宏观的世界,具有综合、协同、继承和互操作的特性,因而成为现代科学研究中求解高度复杂问题的重要科学手段,并与理论研究、实验研究并列为认识与改造世界的三种重要的科学研究手段。”中国工程院院士李伯虎表示。

高性能计算不仅在像宇宙起源这样超长超大时空环境下的模拟、深空探测这样在地面无法进行的模拟中发挥着独到的作用,而且能用更少的时间与金钱代价和更高的效率来替代或者验证现实过程中的模拟和实验。

我国西部不仅蕴藏着全国约80%的水力资源,同时,近代82%的强震也集中在该地区。中国水利水电科学研究院不仅成功地将高性能计算用于高坝地震相应分析,而且有的计算结果还修正了以往小尺度实物模拟时出现的较大偏差。

化工、制药、冶金乃至沙尘暴这些风马牛不相及的领域,在中科院过程工程研究所研究员葛蔚看来,在算法上同属于多尺度数值模拟问题,即在仿真模拟中既要研究可能小至分子原子个体的微小颗粒的运动规律,又要在数米乃至数千米尺度上研究微小颗粒个体之间的相互作用。这种多尺度的问题没有高性能计算是不可想象的,而高性能计算在过程工程上的应用却给人留下充分的想象空间:不必一炉接一炉地冶炼来获取新的合金配方,也不必像神农尝百草那样去寻找新的药品,化学家也会用计算机取代实验室的瓶瓶罐罐和各色试剂。

美国应用数学家Phillip Colell曾将涵盖工程模拟问题的算法归纳为7种。如今这些算法都可以移植到GPU上,区别只是移植难度和程度。换言之,高性能计算应该或者说未来应该无处不在。

“1998年,美国一个化学家因计算化学的研究而获得诺贝尔奖。我国的化学界还比较扭捏,到现在还称之为理论化学,而不叫计算化学,”中科院软件所首席研究员孙家昶说,“我们与物理学家已经很好地合作了,但与化学家的合作才刚刚开始。”

只有相关行业的专家参与,高性能计算的应用才能推广,高性能计算自身进而才能得到持续发展。

百万万亿次的挑战

按照高性能计算过去30多年的发展规律,每秒浮点运算性能将在未来十年内迎来百万万亿次。这1000倍性能的提升带来的挑战是空前的。

联想集团首席科学家祝明发认为,功耗将成为最大的挑战,假设按照现有的双核CPU搭建,仅CPU的总运行功率就高达500千千瓦,电费即便按0.5元/千瓦时计算,也高达600万元/天。如何将系统总功率限制在20千千瓦将会是一个巨大的挑战。此外,来自系统方面的主要挑战有:10~100PB(1015字节)内存和EB(1018字节)外部存储带来的带宽与延时以及功耗限制的挑战,并发性和局部性的挑战,来自系统恢复的挑战等。

祝明发认为,应对百万万亿次的挑战必须要全方位地创新,包括硬件与体系结构,体系结构与编程方法,算法、工具、应用和运行系统的协同优化设计以及低功耗高可靠、可恢复的体系结构设计等方面。“1000倍的跨越,是靠两倍、3倍的跳跃积累而成”。

美国航天航空局(NASA)Langley研究中心Singleterry博士则提到了另一个问题:“NASA高性能系统的内核数每4年翻5倍,从2004年的10240个内核、2008年的51200个,到2012年预计将达256000个,而到2016年将达到1280000个。而算法是否也能每4年翻5倍,从2008年的2000个增加到2016年的50000个?“未来是把钱花在更大和更好的硬件上,还是花在扩展性更强的算法上?”

篇5

技术的进步正在带来资源的解放。在石油勘探领域,这绝不是一句空话。在高性能计算逐渐成为石油勘探海量数据分析的基础保障后,每一次技术的演进都会带来勘探效率的提升及勘探技术革新的可能。所以,对于更强大的高性能计算技术的出现,石油勘探行业甚至已经从“需求”变成了“渴求”。业内众多研究机构一直在期盼数年后才会成熟的、比目前全球最先进高性能计算技术强大数百倍的百亿亿级(即每秒能实现百亿亿次浮点计算)高性能计算技术能够更快到来,为其所用。但在今年召开的以石油行业应用为核心的第七届高性能计算(HPC)及企业解决方案研讨会上,记者发现,随着国内石油勘探难度的加大,用户对更强、更先进的高性能计算平台和相关技术的需求也出现了新的变化。

开源+节流 化解“找油难”

在今年的研讨会上,东方地球物理公司研究院处理中心总工程师赖能和特别强调了石油勘探行业目前面临的三大“计算”挑战:可控震源高效采集技术的快速发展和广泛应用,使日产数据采集量直线上升,计算压力进一步加大;高密度高覆盖采集提高了勘探的精度,使精细化的数据分析成为可能,对计算能力的提升产生了更强烈的需求;高密度采集成为一种新趋势,数据体越来越大,导致了计算效能的降低。

和去年相比,东方地球物理公司研究院处理中心今年承接的高密度海量数据3D项目更多、数据体也更大。赖能和告诉记者,处理中心目前承载的萨科桑3D、塔里木哈7、新疆玛湖、新疆大庆3D、博孜3D等30个宽方位资料和科研攻关项目共涉及19029平方公里、384.8TB的数据量,均是采用高密度海量数据处理。这对处理中心的软硬件处理能力、技术和资源配置都带来了巨大压力。

事实上,东方地球物理公司研究院处理中心的压力恰恰来自“找油难”。石油是不可再生资源,当大区块开发告一段落后,石油勘探业一方面要用更精细化的手段在原有开采区块发掘新机会,一方面则要积极向海洋拓展或到过去“看不上”的区域去找油。这种转变带来的直接影响正是赖能和所说的因数据体量飞速增长而产生的计算压力。“地质结构越来越复杂,对计算的需求也会越来越大。以海洋石油的开采为例,其计算量往往要比陆地石油开采大好几倍。近年来主流软件的演变从时间偏移到深度偏移再到逆时偏移,计算量越来越大。尽管集群单个节点的计算性能在提升,但集群节点量的增速也并没有降低。”英特尔(中国)企业解决方案部能源行业资深企业客户经理杭晓东认为石油勘探行业产生的“开源”需求,仅依靠提升CPU的计算能力已无法满足,这也是让英特尔改变产品发展方向,从异构向微异构调整的原因。今年,英特尔推出的Xeon Phi协处理器就是这样的产品,在提升单点性能

得到大幅提升,从而让高性能计算的效能提升。

在英特尔数据中心及互联系统事业部技术计算和平台应用支持团队平台架构师何万青看来,高性能计算技术不仅能帮用户“开源”,还能帮用户“节流”,以提高产量。他说:“Xeon Phi的出现提供了一种可能性——用比较少的节点提供更高密度的计算能力。如野外的数据采集工作,就可以因为显卡被集成到处理器中的特性而实现现场粗粒度的计算处理工作,减轻数据总量负担。”云与大数据应用的可能

高性能计算与可视化应用难以落实到云计算系统的现实,曾一度让业界认为“云”将与石油勘探行业无缘。目前,对非结构化数据的分析更有价值的Hadoop,对于几乎没有非结构化数据的石油勘探行业似乎也是无用之物。云计算与大数据真的不适合石油勘探行业吗?这个问题已经出现了新的答案。

在石油行业,斯伦贝谢、兰德马克、Nice等服务公司正在提供功能较为完整的石油软件云服务解决方案,并已被多家国际知名石油公司所采用。中石油也已经启动了云技术平台建设项目。

“三年前我们开始探讨虚拟化机制,尝试勘探开发上的一些应用。去年正式立项做云计算的技术测试、跟踪并组织队伍,主要进行四点应用的实验,今年争取搭一个实用的环境。”中国石油大庆油田公司勘探开发研究院总工程师张铁刚如是介绍了中石油云计算平台项目的进展情况。他说,目前中石油总部的云计算平台主要在考虑如何实现数据中心的整合、资源优化、高效利用,结合能源应用的特点,让云平台在地学综合研究、办公经营管理业务以及生产管理方面发挥价值。

对于高密度采集这类应用,中石油已经完成了基于虚拟化技术的实验,实验证明云平台确实可以大幅降低地学应用研究的成本。张铁刚很看好云平台在中石油生产管理效率提升和办公运维管理简化方面的前景。据他介绍,初期测试结果显示,通过资源整合,中石油可以将各单位门户服务器的利用率从20%提高到70%,将专业应用服务器的利用率从20%提高到40%。他直言,在中石油云技术平台建设项目中,英特尔提供了很多重要的技术支持,特别是将其为互联网公司构建云计算系统的经验,传递到了高性能计算领域。

在石油勘探业,高性能计算集群规模越来越大,却未必能带给用户最佳的投资回报。计算的高峰期资源不足,低谷期资源却被闲置。特别是,在集群空载状态下同样要支付巨额电费。与互联网企业的需求一样,不少高性能计算用户也希望能弹性调配计算资源,分享低谷期的计算平台,用于日常生产、办公。今天,中石油的尝试已经把云的设想变为现实。

石油勘探行业是个典型的海量数据行业,但它对数据处理的需求与大数据目前的定义还存在很大差距。虽然目前石油勘探行业的典型应用还没有必须依赖Hadoop的需要,但赖能和认为,这项新技术依旧值得他们长期跟踪。因为如果Hadoop发展到了适合其应用模型时,就会成为大幅降低硬件采购成本的一个选择。

相关链接

跳出“石油”看高性能计算

篇6

近日,全球最快计算机性能排行榜――TOP500最新排名新鲜出炉。TOP500每年上下半年会分别推出两次,已经成为全球最快计算机的大检阅,许多国家公司都以上榜为荣;另一方面,TOP500已经成为业界观察IT技术与产业发展的一个风向标。

2007年上半年公布的第29届TOP500,重新排定了世界各国在高性能计算机方面的座次。实际上,各个国家所占的比例,与其国家的经济与科技发展水平基本相当,同时也预示着在未来发展中的潜力。业内人士历来把高性能计算机的应用程度视为国家综合实力的体现。

透过第29届TOP500,我们依然可以看出IT技术与产业发展的几大趋势。

双核处理器占据统治地位

自从多核技术出现以来,对多核处理器的追求就成为业界一大看点。从单核到双核,从双核到4核,从4核到8核,甚至从8核到16核,多核处理器不断推陈出新。从第29届TOP500我们可以看出,双核处理器占据绝对领先的地位。Intel公司的酷睿双核处理器增长最快,被205个系统所采用,而6个月前推出的第28届TOP500中,采用酷睿双核处理器的系统仅有31个。此外,有90个系统采用了AMD公司的双核Opteron处理器,而6个月前采用该处理器的系统仅为75个。

采用四核处理器的系统并不如人们想像得那么多,这与双核处理器日益成熟、用户易于接受直接相关。现在看来,双核处理器已经成功入主主流市场,而四核处理器则会在AMD四核处理器推出之后才会有上佳的表现。

x86服务器发展迅猛

在高性能计算中应用的处理器多种多样,其中包括Intel的Xeon、酷睿Dual Core、安腾,AMD的单核与多核Opteron,IBM的PowerPC、Power,HP的PA-RISC、Alpha,Sun与富士通的SPARC64等。在TOP500中,采用最多的还是x86架构的处理器,Intel与AMD公司提供的x86处理成为采用最多的两种处理器。TOP500中,采用Intel公司处理器的系统达到289个,占所有系统的57.8%,而6个月前的数字分别为261个和52.5%; 采用AMD公司处理器的系统达到105个,占所有系统的21%,而6个月前的数字分别为113个和22.6%; 采用IBM公司Power处理器的系统则降低到85个,占所有系统的17%,6个月前的数字分别为93个和18.6%。

高性能计算采用的处理器的变化可以折射出服务器发展的一个方向:x86服务器发展迅猛,并且势不可挡;非x86服务器发展势头减缓,成本增高。

巨头对产业影响日渐突出

最新的TOP500,使入围系统总数的厂商名次重新排定。在6个月前,入围系统总数排名TOP500第一的公司是IBM,而现在列头名的却是HP。不过,最新排名主要反映的趋势是: 业界领头企业HP和IBM占据绝对领先的地位,HP系统占所有系统的比列由6个月前的31.6%提高到了41.9%,而IBM所占的比例则由47.2%降到了38.4%。两家企业的系统所占的比列超过了90%,其他任何一家企业所占的比列都不超过5%,这一变化是任何业内专家都无法预料的。

在TOP500中,排名前10名的公司依次为HP、IBM、Dell、SGI、Cray、Linux Networx、Sun、日立、NEC与Atipa Technology。另外,在TOP500中,曙光公司制造的系统名列其中,是惟一一家中国公司。

资料显示,在性能排行的前50位(TOP50)里,IBM系统占有率为46%,性能占前50位系统性能的49%,而HP则缺席TOP50。这从另一个侧面反映出IBM在构造顶级高性能计算机系统方面占据优势,而HP则在利用工业标准技术构建成本更低的系统方面具有优势。其实,这一结果正是两家公司发展策略的一个体现。

技术格局表现稳定

在高性能计算发展中,集群结构、千兆以太网互联技术和InfiniBand技术占据主流地位,从最新的TOP500可以看出,这一格局没有发生大的变化。

篇7

瞻博网络在不久前正式了一项针对新一代数据中心的开发计划:“层云计划”。此计划的目标是建立新一代的单一数据中心网络构架,不但能大幅提升数据中心的网络扩展能力、性能及简易度,同时也能灵活地支持未来整合式的、虚拟化的数据中心环境。

革新数据中心架构

瞻博网络希望通过云计算基础设施的应用来促进云计算应用的创新,这也可以说是替未来的超级数据中心铺路,超级数据中心可以利用其扩展能力,在不影响任何性能的情况下,动态地配置所有资源,包括路由服务、安全服务、存储应用及服务器等。旧有的网络基础设施架构,它们难以处理爆炸式增长的应用需求,限制了现代数据中心的运作与管理。瞻博网络本次所提出的层云网络设计构架除了具备支持超级数据中心所需的灵活性和性能以外,还能持续降低数据中心基础设施的管理成本和复杂性。

据记者了解,瞻博网络的层云计划将由新成立的数据中心业务部门负责,该部门执行副总裁颜维伦博士表示:“瞻博网络公司的层云计划解决了现代化大型数据中心所面临的问题,使云计算能发挥最大潜力。瞻博网络致力于开发更具灵活性、效率更高的网络基础设施,让客户能够以前所未有的扩展性与灵活性来提供各项服务,与此同时大幅降低总体拥有成本。”

瞻博网络其实在2008年11月就推出数据中心基础设施解决方案,促进数据中心整合、服务器虚拟化以及可持续性信息技术这些IT创新的发展。瞻博网络数据中心基础设施解决方案,包括最新的EX8200系列以太网交换机、MX系列以太网服务路由器、SRX系列服务网关以及配备单一强大的网络操作系统JUNOS。

完善的云计算策略

透过数据中心和全球网络帮助客户实现云计算无疑是一个很美好的愿望。但云计划并非一蹴而就,对此,瞻博网络提出,用户应该根据自身的实际,从以下三个方面按步骤建构自己的云端基础架构。

数据中心网络化:今天的网络技术发展让用户必须重新思考过去 20 多年来所建立的基本数据中心架构。瞻博网络的愿景是为数据中心发展单一的“逻辑交换机”。 瞻博网络在帮助客户从传统三个层级以上的模式,简化成二个层级的模式。这样,用户将能够实现一个简化的交换环境,在这个环境中包括了虚拟化安全服务,用以连接跨云端和云端之间的强大路由功能以及用以管理网络的控制中心。未来,瞻博网络的层云计划将提供扁平化、单层、无阻塞、整合的数据中心构架。这个构架的设计,是为了在提供单一交换机既有的简单特性外,同时兼具扩展性,能够扩展至更大规模的云数据中心中应用。

启动更稳定网络:连续运作的基础架构是云计算的基本条件。此外,系统要具备灵活性,能根据流量、重要性、用户和应用程序动态调整网络资源。同时,系统还应当能够提供控制和管理能力。为此,在瞻博网络最新推出的路由产品中,已经有效扩展了设备的连接能力,满足更大规模网络的应用需求,此外,产品还提供了先进的网络虚拟化模块、智慧型服务模块以及应用层与用户层的智能感知功能。

篇8

【关键词】高性能计算;应用;需求;发展

中图分类号: G623.58 文献标识码: A 文章编号:

一、前言

高性能计算的应用为国内的科技发展做出了诸多的贡献,因此,国内也在致力于拓展高性能计算的应用范围,从而希望进一步的促进高性能计算的发展,为我国的科学技术的不断发展提供技术支持。

二、高性能计算概述

高性能计算(HPC) 指通常使用很多处理器(作为单个机器的一部分)或者某一集群中组织的几台计算机(作为单个计 算资源操作)的计算系统和环境。有许多类型的HPC 系统,其范围从标准计算机的大型集群,到高度专用的硬件。大多数基于集群的HPC系统使用高性能网络互连,比如那些来自 InfiniBand 或 Myrinet 的网络互连。基本的网络拓扑和组织可以使用一个简单的总线拓扑,在性能很高的环境中,网状网络系统在主机之间提供较短的潜伏期,所以可改善总体网络性能和传输速率。

三、中国高性能计算的现状与发展

20 世纪 90 年代以来,随着"神威"、"银河"、"曙光"、"深腾"等一批知名产品的出现,我国成为继美国、日本之后的第三个具备高性能计算机系统研制能力的国家,被誉为世界未来高性能计算市场的"第三股力量"。我国在高性能计算机研制方面取得了较好的成绩,掌握了研制高性能计算机的一些关键技术,参与研制的单位也由科研院发展到企业界,有力地推动了高性能计算的发展。目前,我国的高性能计算环境已得到重大改善,总计算能力与发达国家的差距逐步缩小。我国的高性能计算技术拓宽了我国科学技术研究的深度和广度,提高了我国工业的生产效率,同时也节约了很多生产成本。我国的高性能计算技术目前主要在石油行业、天气预报、核能模拟、生物工程等领域得到了广泛的应用。

但是中国高性能计算的应用还不够广、不够深入,应用水平和应用效率都比较低下。我国对高性能计算应用的投入还远远不够,应用研发力量薄弱且分散,缺乏跨学科的综合型人才,从事高端应用软件研发的单位很少,企业界基本未介入,没有良好的相互交流的组织渠道等。高性能应用软件的开发和高效并行算法研究尚不能与高端计算机发展同步,在一定程度上存在为计算机"配"软件的思想。我国高性能计算应用的研究与发明明显滞后于高性能计算机的发展。国外品牌还占领着很多关乎国计民生的关键领域和行业,国产高性能服务器的市场份额仍然偏低。

四、高性能计算应用需求

为满足国民经济发展的需求,高性能计算的需求正在迅速增长。尤其是在基础科学领域,对计算的需求永无止境,而且性能越高的计算机越能产生高精度高时效的成果。目前,深腾6800一直处于满负荷运行状态,折射出下一步高性能计算环境建设的更大需求和更高目标。2004年开始,超级计算中心结合中科院“1+10”创新基地和重点学科的部署,重点对过程工程、空间科学、计算化学、药物设计、材料科学、地球科学、环境科学、生物信息、流体力学、高能物理等11个应用领域开展了多次“十一五”高性能计算应用需求调研,下面分别从研究方向需求、计算需求、应用软件需求和可视化需求方面对调研结果进行具体分析。

1研究方向需求

“十一五”期间各领域用户都对高性能计算提出了需求,例如化学工程中复杂系统的结构研究、空间环境灾害性天气变化规律的研究、有机发光材料的研究、禽流感、艾滋病等重要病毒及重要疾病的药物筛选、纳米电子器件的研究、地幔对流的数值模拟、大规模地震波的数值模拟、癌症样品相关基因的测序及突变分析等。这些项目的主要来源为国家自然科学基金、“八六三”计划、“九七三”计划及科学院项目。

2计算需求

计算需求调研包括用户对内存大小、存储大小和CPU机时的需求。为统一表述用户的计算需求,我们以深腾6800为参照对每个用户的计算需求换算为每年所需CPU机时数,并进一步转换为计算性能(Tflops)来表示。此外,还对用户单个大作业对高性能计算机计算能力的需求进行了调研。

根据目前的数据统计,所有应用领域计算机时需求每年约为3.3亿CPU小时,换算成计算性能约为198。6Tflops,用户单次计算对计算能力的最大需求为67。6Tflops。目前,用户的计算需求已远远超过现在超级计算中心能提供的计算能力,很多大型应用都要求超级计算中心提供服务。

3应用软件需求

科学计算方面的软件很多,超算中心在深腾6800上购置和配备了大量的应用软件。如Intel的C、Fortran编译器、Totalview,VTUNE调试工具、LAPACK,MKL等各种数学函数库,还有化学计算软件Gaussian03、密度泛函计算软件ADF2004及非线性动力分析有限元程序ANSYS LS-DYNA等。“十一五”期间各领域用户除了对计算提出需求外,对计算过程中所需要的应用软件也提出了各自的需求,超级计算中心将根据用户的具体需求,挑选、购买并安装用户需求多的商用和开源应用软件。

五、高性能计算应用发展展望

高性能计算的最终目标是应用。为了更好地完成预定的大规模科学计算任务,不仅要有好的高性能计算机,还要有与之相匹配的高质量的高性能应用。但是,目前我国高性能计算机的实用效率还停留在较低的水平,应用水平低成为高性能计算的薄弱环节。我国的高性能计算事业要走可持续均衡发展的道路,如何使当前的建设成果充分发挥其效益并可持续发展,改善应用水平较低的现状,是我们必须思考的问题。我国对加强高性能计算环境和超级计算中心建设一直给予高度重视和大量投入,但是高性能计算环境建设不能盲目地以追求计算机峰值为目的,而是以应用需求为向导,以应用水平为依据,针对不同应用的计算特点,引进不同体系结构的计算机系统。

高性能计算机的问世给科学研究及工农业生产等带来了前所未有的发展,同时对用户使用计算机也提出了更高的要求。高性能计算机规模的不断扩大、多核处理器的出现都加大了用户使用计算机的难度。针对拥有多处理器(核)的高性能计算机系统,开展操作系统多核版本的研究、多级并行编程模型、软件工具和编译器的开发、现有MPI,OpenMP编程模型的优化,并行算法的改进等工作,对提高应用软件在多核(≥16核/节点)、流计算(IBM Cell,GPU)等下一代计算机系统上的运行效率至关重要。并行应用的可扩展性也是百万亿次、千万亿次大规模计算机系统面临的一个很大的挑战。

六、高性能计算的作用和地位

高性能计算已被公认为继理论科学和实验科学之后,人类认识世界改造世界的第三大科学研究方法,是科技创新的重要手段。高性能计算相对于理论科学和实验科学,有其独特的优越性。首先,高性能计算既免除了真实实验的昂贵代价,而且不会对环境产生任何影响,即所谓无损伤研究。第二,高性能计算可以实现全过程全时空的研究,获取研究对象发展变化的全部信息。第三,高性能计算可以低成本地反复进行,获得各种条件下全面系统的数据。

事实证明,有了高性能计算不再需要进行核试验,有了高性能计算可以预测海啸和地震的危害,有了高性能计算可以通晓人类大脑的奥秘和生命的密码。在我国为满足国民经济发展的需要,高性能计算的需求正在迅速增长。无论是国家安全、石油气象等主要领域,还是以生物医药、微观结构研究为代表的新一代科技,都高度依赖高性能计算。

七、结束语

高性能计算的出现极大的提高了科技的创新能力,不论是在工业还是农业领域,高性能计算都可以发挥其科学计算的优势,很好的完成各项复杂的计算任务,从而为工农业的快速发展提供了技术保障。但是,对于高性能计算运用,我们还需要进一步的开拓。

参考文献

[1]戴建光,许军才.高性能计算在水工上的应用[J].科技广场. 2008(12)

[2]石云,陈蜀宇.论高性能计算与普适计算[J].六盘水师范高等专科学校学报. 2008(03)

篇9

通过湖南省招标有限责任公司严格的招投标程序,评标专家就投标方解决方案的性能、价格和服务等方面进行综合评估,最终,以AMD四核皓龙处理器为计算核心的曙光5000高性能网格计算平台系统解决方案胜出。该方案的服务器硬件平台为曙光5000,体系结构为混合式的集群(Cluster)架构。平台由78个4路4核刀片计算节点、3个8路4核SMP(Symmetrical Multi-Processing)胖节点、2个管理节点、2个I/O节点、1个Web 节点、存储容量为20TB的存储阵列组成,计算网络采用Infiniband高速交换机,管理网络采用千兆以太网交换机。

目前,中南大学高性能网格计算平台已经建设完成,并投入试运行。在2009年10月29日HPC China2009会议上公布的“2009年中国高性能计算机性能TOP100”中,中南大学这套高性能网格计算平台凭借10214.40 Gflops的双精度浮点运算理论峰值,8273.68 Gflops的Linpack测试值和0.81的效率,国内高校排名名列前茅。

中南大学10万亿次高性能网格计算平台自面向全校提供试运行服务以来,已有注册用户170余人,涉及国家重点基础研究发展计划(973)、国家高技术研究发展计划(863)和国家自然科学基金等项目数十个,计算平台日常平均CPU使用率达到60%~90%,内存利用率40%以上,刀片服务器节点使用率高,运行状况良好,完全达到了预期的建设目标。

篇10

关键词:计算资源管理 远程虚拟化 协同应用 OSGI

中图分类号:TP311.1 文献标识码:A 文章编号:1007-9416(2015)05-0000-00

1系统设计

通过对“集群、工作站、存储、网络、应用许可证”等计算机资源进行统一管理和统计分析,实现计算机资源的监控、应用、管理、协同一体化。

(1)系统主体功能。集成开发系统监控、系统告警工具,实现软件、硬件资源运行状态实时监控,提高系统运行维护效率和问题发现处理及时性;建立计算资源管理数据库,实现计算机资源静态资产信息和动态分配信息的分析管理;建立了软硬件资源的分配模型,实现了计算资源的按需动态分配引进虚拟化技术,探索地震处理解释专业软件Web应用模式,实现了石油勘探、开发和设计等专业软件的远程应用与协同作业。(2)功能模型划分。①计算资源信息管理,实现对所有软硬件资源基础信息的管理,主要包括硬件资源管理、软件资源管理、网络运行管理、设备档案、资料管理。通过对这些信息的收集、存储为资源调度提供依据。②计算资源实时监控,计算资源监控模块部署在各个集群节点及专业应用服务器上,主要实现对计算机资源实时动态监控。③资源运行与使用统计分析,以可视化方式展现计算机资源负载和运行状况,主要包括:负载分析:分析 CPU、内存、交换区利用率和内存换页率。④远程应用共享,远程应用集成是采用web远程桌面技术对现有远程应用接入的扩展和功能增强,通过部署远程Web桌面,为勘探开发、数据管理等各种应用提供基于Web的远程访问能力和用户应用定制能力。⑤统一用户管理,通过部署目录服务、身份管理,在用户管理子系统中,对地震资料处理中心、一体化解释决策中心、数据中心的各系统的用户进行统一管理,集中实现访问控制。(3)系统框架结构。基于J2EE开放的技术和平台,采用LDAP技术,实现了用户统一管理和认证;采用OSGI规范,构建了支持业务模块的集成架构,降低了各业务模块的耦合,实现了业务模块的热插拔。采用虚拟化技术,实现了石油勘探、开发和设计等专业软件的远程应用与协同作业。通过Agent、SNMP和SSH等技术,实现了对集群节点、服务器、网络等计算资源状态的实时采集,建立了软硬件资源的分配模型,实现了计算资源的按需动态分配。

2系统实现

(1)身份认证与单点登录。目录服务在网络资源查找、用户访问控制与认证等方面得到广泛应用。目录服务就是按照树状信息组织模式,实现信息管理和服务接口的一种方法。目录服务系统一般由两部分组成:第一部分是数据库,一种分布式的数据库,且拥有一个描述数据的规划;第二部分则是访问和处理数据库有关的详细的访问协议。本平台中采用目录服务技术实现用户统一管理,采用LDAP目录服务。(2)远程接入。基于WEB远程桌面,能快速访问所有基于服务器的应用,对每个用户、部门、访问地点或工作职能来说,访问都是安全的、个性化的。集中化管理用户访问的权限、控制速度和性能,不改变客户端、网络、应用或服务器。不改变现有应用部署下,用户可通过一个统一、熟悉的web化界面简单的访问他们所有的应用。(3)数据采集技术。包括动态采集和静态采集两部分,静态采集主要是一些硬件信息,如节点的名称、CPU的标志符、CPU的型号、CPU的频率、CPU的频率的单位、CPU个数、单个CPU核数、内存大小、磁盘大小、SCSI控制器的型号、本地文件系统名。动态采集包括CPU的负载(系统占用、用户占用、空闲)、内存使用(实际内存大小、占用多少、空闲多少)、I/O(磁盘的I/O速度、网络的I/O速度)信息。适用操作系统为Redhat Linux 内核2.4和2.6,系统版本是4.3、4.4、4.6。

3运行环境

(1)硬件环境:服务器端配置:WEB应用服务器(CPU-双CPU\4G以上,E-cache-2M以上,内存-16G以上,硬盘-500G以上,光驱-普通光驱);数据库服务器(CPU-双CPU\4G以上,E-cache-2M以上,内存-16G以上,硬盘-1T以上,光驱-可刻录DVD光驱);客户端,CPU: PIII733或celeron1G以上。内存:512M。硬盘空间:30 G以上可用硬盘空间。(2)软件环境。服务器端配置:WEB应用服务器(操作系统- Redhat Enterprise Linux5,数据库-,其他- Tomcat 6 及备份策略);数据库服务器(操作系统- Redhat Enterprise Linux5,数据库- ORACLE 11g数据库,其他-);客户端,通讯环境:能够登录Internet,带宽:1M以上。操作系统:windows2000、windows2003、windowsXP等。浏览器:Internet Explorer8.0以上版本。

4结语

系统研究实现了计算资源的“用、看、管”,满足了专业软件应用、系统维护管理、计算资源管理三方面的需求,取得了以下几个方面的应用效果:1)建立了软硬件资源分配模型,改进计算资源分配模式,提高资源应用效率;2)实现实时监控,系统运行安全性、时效性得到提升;3)提供资源统计分析数据,为投资决策提供依据;4)成功应用软件虚拟化应用技术,初步实践云计算理念。

参考文献

[1] 陈丽华,郭彤.Windows 2000/2003组策略在图书馆OPAC检索机管理中的应用[J].计算机与网络,2006年20期.