高性能计算机范文

时间:2023-03-23 15:32:53

导语:如何才能写好一篇高性能计算机,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。

高性能计算机

篇1

从今年7月开始,惠普开展了为期半年、涉及全国20个油田的高性能计算机应用巡展,石油行业用户对由刀片和集群构建的高性能计算机非常热衷,对这种高性能计算机所表现出的高性能、低能耗、易管理、易扩展等特性赞赏有加。

无独有偶,随着最新一期的全球最快计算机排行榜(TOP500)于11月30日出炉,专家关于刀片+集群快速增长的预言成真。在TOP500中,采用刀片和集群架构的高性能计算机数量大幅增加,成为TOP500中增长最好的一种类型。惠普入围TOP500的系统中,95%是采用刀片服务器。

刀片保证投资回报

早在两年前,就有专家预言:未来的2~3年内,刀片式服务器将以其高服务器密度、敏捷式部署维护、全方位监控管理融合、高可扩展性与可用性,全面取代传统基于机架式服务器的集群系统,基于刀片式服务器的集群系统将得到大量应用。

事实表明,基于刀片服务器的集群系统的潜力正在逐渐释放。2006年的中国TOP100排行榜显示,超过70%的系统采用了集群体系结构,而值得关注的是,其中有26套是刀片服务器集群系统,惠普和IBM分别占有13套和11套。在这26套系统中,有17套用于石油勘探,6套用于网络游戏。

中国惠普有限公司副总裁,商用产品事业部总经理杨诺础认为:过去,用户大量采用基于PC服务器的集群系统,并在过去3~5年成为一个主流发展方向。不过在最近两三年,基于刀片服务器的集群系统开始大范围推广应用。在中国,石油行业是采用刀片服务器最多的一个行业。

在分析形成这一趋势的原因时,江汉油田勘探开发研究院计算机中心的总工程师罗忠辉认为,刀片服务器作为一种高可用高密度的低成本服务器平台,在高密度、易扩展和低成本方面都更适合地震资料处理等石油行业的关键应用需求;同时,刀片式服务器集群节点密度高于传统的1U机柜,占地面积更少,可以在有限的空间整合巨大的运算能力,即使在未来增加更多的节点,也不需要考虑机房空间问题;在通风、耗电等方面,比1U机柜更适合地球物理的应用;在密集型的高性能计算中,刀片式服务器在布线和相互连接方面比传统的机架式服务器又有很大的改进。

而杨诺础认为,石油行业在IT应用上与大部分行业不一样的地方是更重视投资回报,IT应用与企业的回报率直接挂钩,勘探的一个误差会导致几十万美元的成本增加。采用刀片构建集群系统,可以降低风险成本,IT投资回报率比较明显。

两大典型应用

在中国,高性能计算机应用已经有十多年的历史,用户在选择适合自己的系统上更显理性。相比用机架式服务器构建HPC,用刀片构建HPC具有更多优势:它可以节省机柜空间,系统密度高;节省电力,刀片系统的能耗明显比机架系统低;容易部署和管理,刀片采用模块化架构,需要就可以插入,没有太多的线缆,都在机架内完成;集成了网络设施,可以配置10G光纤通道与Infiniband等。

在中国石油行业,两大基于刀片的集群系统广受好评。第一个集群系统是部署在大庆油田公司勘探开发研究院的刀片服务器集群地震资料处理系统。该系统采用惠普开发出的刀片服务器架构,集成了692台惠普第三代服务器产品――HP BL20PG3、HP DL380G3和HP DL580G3三种服务器,选用了1432个Intel 至强CPU,其峰值浮点计算能力超过 9.8万亿次,位居中国刀片服务器集群系统榜首,是国内处理规模最大的地震资料处理系统。该处理系统用于大庆探区地震资料的高分辨目标处理和叠前偏移处理,使大庆油田公司勘探开发研究院具备了二维地震资料目标处理2万公里、三维叠前偏移处理1万平方公里的年处理能力。

刀片服务器集群系统采用惠普的刀片服务器架构。整个系统由常规计算节点、偏移计算节点、管理节点、I/O节点、核心交换网络和管理网络组成,并安装了Redhat Linux AS 3.5版本操作系统、CMU和SIM集群管理及监控等系统软件,利用惠普公司开发的iLO高级管理技术,实现服务器集群的远程管理。常规计算节点采用200多台HP ProLiant BL20pG3刀片服务器,千兆网络端口直联,安装在6个机柜中。HP ProLiant BL20pG3采用2个Intel 至强3.4 GHz DP处理器。而偏移计算节点则采用400多台HP ProLiant BL20pG3。

另一个典型系统部署在中国地球物理界最大的专业服务公司――中国石油集团东方地球物理公司研究院大港分院。大港分院采用了HP高性能计算集群系统,以HP刀片式服务器作为计算节点,实现二维常规处理12000公里、三维常规处理6000平方公里、迭前偏移处理3000平方千米的年处理能力,使大港分院地震资料处理能力和处理水平大幅度提升。

大港分院选用了由HP提供的包括硬件和软件在内的整套高性能计算方案,包括119个HP ProLiant BL20P节点、14个基于Intel至强处理器ProLiant DL380G2作为I/O节点,以集群技术组成超级并行计算机作为地震资料处理的主机系统,共131个节点,262个处理器,整体计算能力实现浮点计算达1.4万亿次/秒。

在整套系统中,硬件系统包括:I/O节点采用主频为3.06Hhz的HP ProLiant DL380G2 2U机架式服务器,计算节点采用主频为2.8Hhz的HP ProLiant BL20pG2刀片式服务器,监控分发节点采用HP ProLiant DL380G2 2U机架式服务器,物理节点采用HP ProLiant DL360 1U机架式服务器,互连网络系统采用HP ProCurve Switch 高性能网络交换机,每套PC-Cluster计算机系统由两个网络系统组成,一个为高性能的千兆以太网传输数据信息,一个为10/100快速以太网传输管理控制信息;存储系统采用HP Smart Array机群阵列盘柜。

管理和服务最被看重

那么,用户选择刀片的标准是什么?江汉油田勘探开发研究院计算中心总工程师罗中辉指出,用户最看重的是管理和服务。大港分院副总工程师兼计算机服务中心主任张武斌也认为,以刀片服务器为节点的高性能集群系统试运行以来,最大的感觉之一就是系统管理方便了。HP提供的集群系统管理软件Cluster Management Utility管理功能全面,还具有远程管理特性,使用户能够在任何终端管理集群系统,查看机器的运行状况。“现在,我们在自己的办公室里就可以管理这套系统,不必再跑到机房了,非常便捷。”

集群系统管理软件Cluster Management Utility(CMU)是一个Beowulf Cluster系统环境下的管理软件,它提供了友好的图形用户界面。比如,CMU使用了RILOE板并集成了iLO的特性,使远程文本控制台在服务器的所有状态下均可远程控制服务器电源。无论服务器处于何种状态,远程BIOS设置借助独立于CMU的WEB浏览器,远程访问图形控制台。由于CMU具有将一个节点的系统磁盘分区克隆到其他集群节点的能力,能够避免对集群中各节点进行系统安装或配置所带来的耗时、费力的工作,这一特性使大港分院能够在3天内就完成了集群系统的安装。

篇2

关键词:科学计算;大数据处理;超级计算机;模拟仿真;并行计算

1引言

在现代科学研究和工程实践中,通常使用数学方程式来表示某些自然科学规律,产生了众多复杂繁琐的数学计算问题[1]。基于普通计算工具来解决这些问题,将耗费大量人力物力,甚至无法得到准确结果。而科学计算[2],利用计算机仿真、重现、预测或探索自然世界万物运动规律和演变特性的全过程,通过研究合理的计算方法,设计高效的并行算法,研制合适的应用程序,能准确、高效地模拟各领域研究过程,分析计算结果。然而,普通计算机的科学计算能力往往是有限的,现有的计算能力无法高效地解决某些基础学科和工程技术部门的科学计算问题,如长期天气预报、石油勘探、飞机整体气动力等等。

与此同时,地震检测仪、粒子碰撞器、天文望远镜以及高通量分析装置等大型科学仪器的研制和发展[3],产生了大量非结构化或半结构化的数据,使得“大数据”趋势变得越来越突出[4]。如今,许多科学发现和见解由大量数据集驱动,“大数据”被认为是除了实验、理论和计算方法之外的第四种科学范式[5]。数据生成的容量、速度和多样性构成了分析大数据的主要挑战。

为提高科学计算能力,解决大数据问题,高性能计算(HPC)[6]技术迅猛发展。高性能计算机代表用于解决计算密集型科学和工程问题的高端计算基础设施。我国的高性能计算早已突破每秒浮点运算千万亿次的壁垒,并继续解决性能、可扩展性、可编程性、能效和可靠性等问题,探索新的支持技术以达到e级计算能力。

目前,高性能计算机已在多个领域得到了成功的应用[7],但仍存在大量可供多个研究机构使用的空闲节点。本文简介了一些高性能计算机系统及其性能,针对近年来在高性能计算机上的各大领域应用实例进行总结,并对在其他领域的应用做出了展望,以促进更高效、全面地使用高性能计算机。

2高性能计算机系统概述

中国首台千万亿次超级计算机,是“天河一号”。“天河一号”超级计算机使用由中国自行研发的“龙”芯片,其峰值计算速度能够达到1.206TFlop/s,同时Linpack实测性能达到了0.563TFlop/s,该超级计算机位居当时公布的中国超级计算机前100强之首,中国成为了继美国之后世界上第二个能够自主研制千万亿次超级计算机的国家。

天河一号采用6144个英特尔通用多核处理器和5120个AMD图形加速处理器,其内存总容量98TB。至于点对点通信的带宽就达到了40Gbps,而其用于共享的磁盘总容量则达到1PB。该超级计算机系统部署于天津滨海新区的国家超级计算天津中心作为业务主机。

2013年,由国防科学技术大学研制的“天河二号”大型超级计算机以每秒33.86千万亿次的浮点运算速度成为全球最快的超级计算机,位列国际大型超级计算机TOP500榜首。随后,“天河二号”实现了世界最快超算“六连冠”。天河二号采用基于加速器的架构[8]。在可接受的总成本、功率预算、支持可靠性、可用性和可服务性(RAS)的能力、应用开发和移植的复杂性下提供高的计算性能。

天河二号的硬件系统由五个子系统组成,包括计算系统、通信系统、存储系统、监控诊断系统和服务系统。它由16000个节点组成,每个节点有2颗基于IvyBridge-EXeonE52692处理器和3颗XeonPhi,每个节点的内存是64GB。所有的计算节点都通过专有的高速互连系统连接。还提供了一个服务子系统的4096个节点,以加快高吞吐量的计算任务,如大数据处理。存储子系统包括256个I/O节点和64个容量为12.4PB的存储服务器。天河二号文件系统命名为h2fs,采用麒麟操作系统、基于SLURM的全局资源管理。支持大多数现代编程语言,包括C、C++、Java、Python等。采用的是新型异构多态体系结构(Multipurpose-Heterogeneous)[9]。

天河二号的系统配置列于表1中。

“天河二号”集科学计算、大数据分析和云计算于一体,被认为是满足工业和社会需求的战略基础设施。以超级计算机为支撑的高性能计算应用正加速向各个领域渗透。

Table1SystemindicatorsofTianhe-2

表1天河二号系统指标

width=375,height=252,dpi=110

在国内早期的高性能计算机研究中,2004年6月超级计算机曙光4000A研制成功,落户上海超级计算中心,标志着继美国和日本之后,中国是第三个能研制10万亿次高性能计算机的国家。曙光能够每秒运算11万亿次,进入全球超级计算机前十名。经过十多年发展,曙光E级高性能计算机系统项目现在是国家“十三五”期间高性能计算的重点专项,其最显著的特点是突破了制约E级计算发展的各个关键技术,通过这样原型机的研制去验证E级的技术路线,为未来真正实现国产E级系统做技术铺垫。

width=642,height=303,dpi=110

Figure1StructureofSugon’sCPU

图1曙光CPU结构

在2016年法兰克福世界超算大会上,“神威·太湖之光”超级计算机系统成为新的榜首,速度较第二名“天河二号”快出近两倍,效率提高三倍。

神威·太湖之光超级计算机由40个运算机柜和8个网络机柜组成。每个运算机柜包含4块由32块运算插件组成的超节点。每个插件由4个运算节点板组成,一个运算节点板又含2块“申威26010”高性能处理器。一台机柜就有1024块处理器,整台“神威·太湖之光”共有40960块处理器。每个单个处理器有260个核心,主板为双节点设计,每个CPU固化的板载内存为32GBDDR3-2133。

在2018年的法兰克福世界超算大会上,美国能源部橡树岭国家实验室(ORNL)推出的新超级计算机“Summit”以每秒12.23亿亿次的浮点运算速度,接近每秒18.77亿亿次峰值速度夺冠,“神威·太湖之光”屈居第二。

3高性能计算机各大领域应用实例分析

为充分发挥高性能计算机的优势,极大限度地满足客户需求,自超级计算机在中国开始发展以来,相关团队都致力于扩展高性能计算在各个领域的利用,迎合各领域应用的计算要求,协助用户配置应用环境,建立高效模型,设计合理并行算法,以实现各领域的科学计算和大数据处理在高性能计算机上的应用。

3.1生物计算与精准医疗

根据广州国家超级计算中心的内部统计[10],生物医学相关应用现在是超级计算中心的主要客户。生物医学研究主要包括生物大分子的结构模拟与功能建模,药物设计与筛选,蛋白质序列分析,基因序列分析与比对,基因调控网络的分析与建模,医疗卫生的双数据分析及生物医学文献挖掘等。

生物医学数据繁多,且一直呈指数增长。如世界最大的生物数据保存者之一,欧洲生物信息学研究所(EBI),存储超过20PB的数据,并且最近每年的数据量都增加一倍[11]。数据源的异质性,包括基因组学、蛋白质组学、代谢组学、微阵列数据、文献等,使其更加复杂。

针对典型类型的大数据——基因组大数据,在大数据框架(如Hadoop和Spark)的帮助下,云计算已经在大数据处理中发挥着积极作用。现在,HPC在中国的快速发展使得以不同的方式解决基因组大数据挑战成为可能。Yang等人[12]强调了在现代超级计算机上增强大数据支持的必要性,提出只需单个命令或单个shell脚本就能使当前的大数据应用在高性能计算机上运行,并且支持多个用户同时处理多个任务的Orion作为高性能计算机的大数据平台。该平台可以根据大数据处理需求,合理分配所需的资源量,并使用HPC系统软件栈自动建立和配置可回收的Hadoop/Spark集群。以华大基因提供的基因组学大数据作为案例研究,测试基因组分析流水线SOAPGaea的FASTQ过滤、读取对齐、重复删除和质量控制四个过程,证明了Orion平台的高效性。

为更好地了解基因的精细结构、分析基因型与表现型的关系、绘制基因图谱,DNA序列分析成为生物医学中的重要课题[12]。

DNA序列的排序是对DNA序列分析的基础[13]。通常先使用测序仪得到生物体基因组的一些片段,再利用计算机对片段进行denovo拼接,从而得到DNA序列的排列顺序。而随着测序仪的发展,基因组的数据量增大,分析复杂性提高,普通计算工具分析数据会消耗大量时间和空间。张峰等人[14]基于高性能计算机,使用一种新型序列拼接工具SGA(StringGraphAssernbler),对任务之间数据耦合度小的分批构建FM-Index,采用粗粒度的多进程并行;对任务之间数据耦合度较大的FM-Index合并过程,采用多线程的细粒度并行。这种多进程与多线程的混合并行策略,使用并行计算代替通信开销,测试小规模数据时,将索引构建时间的最佳性能提高了3.06倍。叶志强等人[15]在基因组排序时,引入随机listranking算法,基于高性能计算机,使用MPI并行实现Pregel框架的线性化步骤,利用节点之间的通信和计算能力,减少了线性化步骤时间。

SNP(单核苷酸多态性)检测是DNA序列分析的关键步骤[16]。它将对齐的read、参考序列和被编排的数据库(如数据库SNPP)作为输入,通过站点检测对齐的read和引用站点的信息,生成SNP站点的列表。SNP检测工具SoAPSNP可以用一个多星期的时间来分析一个覆盖20倍的人类基因组。崔英博等人[17]通过重新设计SOAPSNP的关键数据结构以降低内存操作的开销,设计CPU与XeonPhi协作的协调并行框架,以获得更高的硬件利用率。并提出了一种基于读取的窗口划分策略(RWD),在多个节点上提高吞吐量和并行规模,开发了SOAPSNP的并行版本MSNP,在没有任何精度损失的情况下,利用高性能计算机的一个节点实现了45倍的加速。

方翔等人[18]利用高性能计算机,构建了由基因组与转录组测序数据分析、蛋白质结构预测和分子动力学模拟三个功能模块组成的生物信息平台分析水产病原,对约氏黄杆菌等多种水生动物病原进行生物信息学分析。

从生物医学文献中提取有价值的信息的一种主流方法是在非结构化文本上应用文本挖掘方法。然而,大量的文献需要分析,这对文本挖掘的处理效率提出了巨大的挑战。彭绍亮等人[19]将针对疾病实体识别的软件DNorm加入可高效识别基因、蛋白质、药物、基因通路等实体关系的文本挖掘工具PWTEES流水线中,扩充了PWTEES的功能。使用LINNAEUS导入MEDLIN数据库提供的摘要,并在个人账户目录下,动态使用计算节点,编译安装配置了非关系型数据库(MySQL),将大量非结构化数据(文献)转为结构化数据。将平时在普通服务器上需100天能完成的文本挖掘过程缩短为1小时,并利用200个进程并行挖掘7万篇头颈癌相关文献中的关键命名实体,得到了80%以上的并行效率。Xing等人[20]开发了一个可运行的框架PARABTM,它能够在超级计算机上实现并行文本挖掘。以GNormPlus、tmVar2.0、Dnorm三种命名实体识别任务为例,对多个数据集上PARABTM的性能进行了评价。结果表明,使用PARABTM并行处理策略中的短板匹配负载平衡算法(Short-Boardloadbalancingalgorithm),最大程度地提高了生物医学命名实体识别的处理速度。

3.2全数字设计与制造

数字设计与制造是一种以计算机系统为中心的集成制造方法。随着制造工厂中计算机系统数量和质量的提高,数字化趋势迅速。越来越多的自动化工具被用于制造工厂,有必要对所有机器、工具和输入材料进行建模、模拟和分析,以优化制造过程。而模拟能够建模和测试一个系统行为特性,让工程师能够用更低耗、更快速同时更安全的方式来分析所做的设计会产生什么样的影响。模拟的应用范围广泛,涵盖了产品设计、过程设计以及企业资源安排[21]。在模拟过程中,利用超级计算机强大的计算能力,使工程师能在几分钟或几小时内仿真和测试数千种设计方案。

利用数字化的方式,可以对产品进行结构力学分析、流体力学分析、电磁设计和多物理场模拟等多种计算仿真。

在计算流体力学CFD(CcomputationalFluidDynamics)领域的一大热点研究问题就是如何在当前主流的众核异构高性能计算机平台上进行超大规模计算。杨梅芳等人[22]在高性能计算机的单个节点上,利用超然冲压发动机燃烧数值模拟软件LESAP模拟一个实际发动机燃烧化学反应和超声速流动的问题,采用OpenMP4.0编程标准,向量化SIMD,优化数据传输过程,均衡基于网格块划分的负载技术,实现了软件面向CPU+MIC异构平台的移植,达到了3.07倍的性能加速比。王勇献等人[23]面向高性能计算机探索了高阶精度CFD流场数值模拟程序的高效并行性。在高性能异构并行计算平台上进行了多个算例的数值模拟的结果显示最大CFD规模达到1228亿个网格点,共使用约59万CPU+MIC处理器核,实现了移植后的性能大幅度提高。通过将算法移植到超级计算机进行大规模并行,能够实现高效的流体力学分析。而文献[24-26]都是针对空气动力学中的具体分类利用高性能计算机进行模拟以验证有效性的研究。利用数字化设计,能够快速低成本地对设计性能进行分析评估。

在图像模拟中,Metropolis光传输算法能够利用双向路径跟踪构建出由眼睛到光源的路径,是MonteCarlo方法的变体。然后,使用Metropolis算法静态计算图像中光线的恰当的散射状态,由一条已发现的光到眼睛的路径,能搜索到邻近路径。简单地说,Metropolis光传输算法能够生成一条路径并存储其上的节点,同时能通过添加额外节点来调整并生成新的路径。随着对照片级真实感图像的要求越来越高,为Metropolis光传输算法开发高效且高度可扩展的光线跟踪器变得越来越重要。主要是渲染图像通常需要花费大量时间,开发高效且高度可扩展的光线跟踪器的困难来自不规则的存储器访问模式、光携带路径的不平衡工作量以及复杂的数学模型和复杂的物理过程。Wu等人[27]提出了一种基于物理的高度可扩展的并行光线追踪器,并在高性能计算机上进行了实现,利用多达26400个CPU内核,证明了其可扩展性,能够从复杂的3D场景生成逼真图像。

模拟高场非局部载流子传输同样需要3DMonteCarlo模拟方法,通过适当的量子校正涵盖散射效应,半经典的MC模拟能够给出准确的结果。但是,MC方法中3D模拟和量子校正都需要巨大的计算资源[28],由效率出发超级计算机的计算能力就至关重要了。文献[29]中,通过在高性能计算机上使用IntelMIC协处理器,进一步提高了之前工作中开发的3D并行的继承MC模拟器的并行效率。

对于高性能计算机在全数字设计和制造领域的集成应用,国家超级计算广州中心推出了天河星光云超算平台,以云服务的方式提供CAE计算和HPC访问,大大降低了数字设计的门槛,支持产品设计的全工作流。目前基于该平台支撑的项目有诸如国产大飞机、高铁等,都是国家工业生产中重要项目[30]。

3.3地球科学与环境工程

基于该应用领域,超级计算机的主要作用在于变革对自然界中诸如地理状况、海洋、大气等种种元素的模拟方式。以超算为平台,不仅能模拟出地球上每个时期的状况,甚至是对宇宙中的种种同样能进行模拟分析,让地球科学和环境工程的研究范围不再限于此时此地,而是更广阔的空间。

在宇宙学的层面,早在2015年就利用高性能计算机模拟出宇宙大爆炸后1600万年之后至今约137亿年的暗物质和中微子的演化过程,并将进一步寻找宇宙边界的报告[31]。中微子虽然是自然界中的基本粒子之一,在宇宙大爆炸约1s后与其他等离子体物质退耦,形成看不见的宇宙背景,通过物理实验和实际的天文观测都无法精确测量中微子的质量。在高性能计算机平台上,利用3万亿粒子来对宇宙中的中微子和暗物质的分布和演化进行模拟,开创了宇宙学中独立测量中微子质量的道路。

在地球外围层面上,大气变化同样是一个关注点。Xue等人[32]提出了一种基于高性能计算机的全球性大气动态模拟的混合算法。通过使用更灵活的域分区方案来支持节点中任意数量的CPU和加速器,算法能够充分利用超算的优良性能。当使用8664个节点,包括了近170万个核心时,可以有效地利用节点内的三个MIC卡,对两个IvyBridgeCPU(24个内核)实现4.35倍的加速。基于成功的计算-通信重叠,算法分别在弱和强缩放测试中实现了93.5%和77%的并行效率。

相较于广袤无边的宇宙,大部分人们对于脚下的土地更加关心。自然灾害如地震、泥石流等,可能会造成巨大的生命财产损失,而地下油气资源又是经济社会发展所必需的,利用超级计算机去探索大地也是发展所需要的。

中石油集团开发的用于石油油气勘探的GeoEast系统已经经过了十几年的发展更新,在数据模型、数据共享、一体化运行模式、三维可视化、交互应用框架、地震地质建模、网络运行环境和并行处理方面取得了多项创新与重大技术突破,是地震数据处理解释一体化系统。目前GeoEastV3.0版本软件总体达到国际同类软件先进水平,为推动中国石油勘探开发领域不断取得新成果发挥了重要作用[33]。但是,这样的一体化系统在使用中势必会产生大量的数据,这就对计算机的性能有了要求。因此,在GeoEast系统闻名世界的过程中,高性能计算机在幕后是功臣之一,保证了系统的顺利运行,助力石油勘探工作[34]。而文献[35]专注于地震模拟,提出了针对英特尔至强处理器的对于软件SeisSol的优化,以适用于高性能计算机的计算环境中,通过全摩擦滑动和地震波的耦合仿真实现了空前复杂的地震模型。移植到高性能计算机的SeisSol提供近乎最佳的弱缩放,在8192个节点上达到8.6DP-PFLOPS,在所利用的整个高性能计算机上能达到18~20DP-PFLOPS,成功模拟了1992年兰德斯地震。

3.4智慧城市云计算

城市发展经过多年的调整,已经在经济上有了相当进展,目前从如何让人们生活更加便捷出发,许多地区开始建设智慧城市。智慧城市(SmartCity)是指利用各种信息技术或创新意念,集成城市的组成系统服务,以提升资源运用的效率,优化城市管理和服务,进而能够提高居民生活质量。智慧城市的发展不仅仅是对生活的改变,还能促进生产方式的转变,解决在城市扩张及经济高速发展中产生的一系列“城市病”问题。智慧城市,代表的是城市的智慧,由智慧,能够衍生出智能中、知识和数字等更广泛的内涵[36]。

迄今为止,广州、北京、上海、宁波、无锡、深圳、武汉、佛山等国内城市已纷纷启动“智慧城市”战略,相关规划、项目和活动渐次推出。高性能计算机云平台应运而生,为智慧城市建立坚实、先进的基石。智慧城市由于其性能需求,对依赖的平台的计算能力的要求会更高,而超算的计算能力就能为智慧城市的建设提供相当助力。在2014年,就有中国首台千万亿次超级计算机“天河一号”在智慧城市中应用的报道,以其在天津滨海区的应用为例,“天河一号”的建筑信息领域的大数据平台通过对建筑信息建模,实现对建筑物从规划、设计、建造到后期物业管理理的全程数字化。此外,城市规划、气象预测、生物医疗、装备制造、汽车碰撞模拟等行业,也能更多地通过“天河一号”,实现大批量数据计算、分析和存储[37]。

而高性能计算机的持续计算速度进一步达到了亿亿次,所能提供的服务质量也更高,麒麟云平台被部署在1920个节点(15个机柜),其中64个节点(两个机框)作为云平台控制节点,其余节点为运行虚拟机的计算节点和分布式存储的存储节点。为方便管理,将计算节点进行分区管理,512个节点(4个机柜)为一区,用于满足生产环境、适配环境、测试环境需要。分布式存储没有分区,所有节点形成一个全局的分布式存储池,但在使用时可按需划分指定容量的区域供不同用途使用[38]。这种云超算服务采用麒麟安全云系统实现虚拟化技术,将虚拟机资源远程推送给用户使用[39]。可通过互联网远程管理虚拟机资源,使高性能计算机云平台资源能够被更多人使用,超算的计算能力能够更好地推动社会各个领域发展。2017年OpenStack的第15个版本中,麒麟云团队在核心功能解决的Bug数,以及Commits的数量均进入全球前20,麒麟云的发展是非常迅速的,与开源社区紧密结合,贡献突出[40]。

3.5材料科学与工程

在材料科学与工程的研究中,量子力学、经典动力学、统计力学是三大基础且主要的研究方向。研究人员致力于材料参数的建模、多尺度平台开发和新材料的设计、开发和优化。

分子动力学模拟在材料科学、生物化学和生物物理学等领域得到了广泛的应用。分子动力学(MD)是研究分子和分子的物理运动的计算机模拟方法,它提供分子尺度上的微观取样。基于能量细化的辅助建模AMBER(AssistedModelBuildingwithEnergyRefinement)[41]是用于MD模拟的使用最广泛的软件包之一。然而,对于具有百万原子级的系统的AMBERMD模拟的速度仍然需要改进。彭绍亮等人[42]在单CPU上的细粒度OpenMP并行、单节点CPU/MIC并行优化和多节点多MIC协作并行加速方面进行了改进。在高性能计算机上实现AMBER的并行加速策略,与原程序相比,实现了25~33倍的最高加速比。同时,对于计算资源的限制,分子动力学软件GROMACS不能大规模地进行满意的操作。Wang等人[43]提出了一种利用卸载模式加速GROMACS的方法。为了提高GROMACS的效率,提出了异步化、数据重组和数组重用等一系列方法。在这种模式下,GROMACS可以与CPU和IntelXeonPHITM多个集成内核(MIC)协处理器同时有效地配置,充分利用高性能计算机资源。

材料辐照效应(Materialirradiationeffect)是使用核能的重要关键之一。然而,由于高通量辐照设施和进化过程知识的缺乏,此效应的利用并不好。在高性能计算的帮助下,Hu等人[44]提出了一种新的数据结构,用于大规模并行模拟金属材料在辐照环境下的演化。基于所提出的数据结构,开发了一种新的分子动力学软件——CrystalMD,并在高性能计算机上进行了二兆个原子模拟,对MD辐射效应研究的模拟规模进行了扩展。

3.6其他领域

近年来,随高性能计算的推广,政府部门对超级计算机的重视,旧产业转向新产业的变化及大量有高性能计算需求的企业对超级计算机的需求增大,超算人才培养初见成效[45]。在应用软件开发等推动下,高性能计算机的适用范围逐渐向更多领域渗透。

源于人工神经网络的研究深度学习作为人工智能的一个新研究领域,在模仿人脑的机制来解释如图像、声音和文本数据上有了很大进展。例如,卷积神经网络(CNN)能准确地对大型图像进行识别处理,然而CNN的训练密集程度很高,特别是对于大型具挑战性的任务,卷积层的参数数据量庞大。而高性能计算机的易访问、高峰值等性能使学术界和工业界都可以轻松访问相关平台,并可以在合理的时间内训练中等和较大规模的CNN。使用基于输入展开以将其投影为矩阵乘法(Unfold+Parallel-GEMM)的算法的CAFFE、Theano、Torch7、Chainer、CNTK和TensorFlow等最先进的CNN基础设施已可以在高性能计算机上进行部署和应用。

增强现实技术AR(AugmentedReality),将真实世界信息模拟至虚拟世界,让人随时产生真实感受。通过高性能计算机高效地实现算法,可以数字虚拟孕育“互联网+”新业态,开发虚拟试衣、模拟试驾等应用项目。

篇3

关键词 故障解决HPS IBM 高性能计算机

引言

IBM高性能计算机系统承担中国气象局主要的天气气候业务科研模式运行,系统在2004年末安装以来,运行一直比较平稳。在整个系统中,数据交换是通过IBM HPS(High Performance Switch)网络实现的,通过SWITCH网络为用户的并行作业提供通信。如果SWITCH网络出现问题,就会影响模式的运行效率,甚至可以导致整个系统不能使用。在2006年9月21日,科研分区的SWITCH网络故障,导致了整个科研分区的瘫痪,9月24日故障恢复;此次故障对数值预报系统和动力气候模式预测系统的业务模式没有影响,只是涉及了科研分区的用户和作业。

1 故障基本情况

1.1 故障现象

2006年9月21日,科研分区的系统性能下降,用户作业的运算速度比较慢,检查发现HPS(High Performance Switch)[1]网络的通信状态大面积出现异常,影响了GPFS(General Parallel File System)[2]数据文件系统和作业管理软件L DLEVEL的正常运行,导致用户无法使用数据空间和正常提交用户作业,最终导致了用户无法使用科研分区;在SWITCH网络通信正常后,GPFS文件系统中的有些文件不能正常访问。

1.2 处理过程

在故障发生后,为了确保不影响业务, 对系统上运行的业务模式分析并做应急处理。系统承担的业务模式包括数值预报业务模式系统和动力气候模式系统,这些业务模式都运行在业务分区,但是动力气候模式系统的用户空间挂接在科研分区的服务节点上,为了避免维护科研分区时影响业务,紧急切换HACMP(High Available Cluster Multi—Processing),使文件系统挂接在业务分区。

在确保业务可以稳定运行后,由于当时用户已无法使用科研分区,因此首先申请对科研分区进行停机维护,然后分析并解决故障,处理过程如下。

(1)分析HPS网络通信数据,发现F45一S11和F46一S07的两块主板上的芯片内部通信不正常,决定更换这两块主板;但由于备件新损的原因,只有一块主板可用,只更换了F46一S07 SWITCH的主板。

(2)在重新加电启动完毕后,仍有大量的HPS网络不能通信,导致GPFS不能稳定工作,用户无法正常提交作业。

(3)用SWITCH管理界面检查SWITCH状态时,显示大量节点存在光纤卡故障的报错,但光纤卡的状态指示灯显示正常,更换了5块光纤卡进行检测,没有作用,故排除了大批量光纤卡故障的可能。

(4)收集SWITCH的SNAP数据传给美国实验室,对数据进行分析;经过数据的多次收集传递,美国实验室SWITCH产品专家对底层数据进行分析后,建议对F20、F21、F22、F24、F28、F30、F34、F36、F38、F45、F46、F47、F48、F49、F50机柜进行电源微码刷新,刷新为统一的26A6版本后,SWITCH网络恢复正常。

(5)系统启动后,对科研分区进行检查,发现不能正常访问GPFS文件系统,3个文件系统均报I/O读的错误,但可以正常写入数据;fsl可以用mmfsck命令进行修复,但fs2和fs3均各有一个NsD(Net—work Shared Disk)的状态为“down”状态,然后手工启动GPFS文件系统,整个系统恢复正常。

2 故障原因分析

2.1 控制信号传输过程

从图1可见,IBM 高性能计算机系统是通过硬件控制终端HMC(Hardware Management Console)对主机和SWITCH的硬件进行控制,通过HMC上的SNM (SWITCH Network Manager)软件管理HPS,在HMC上启动FNMD(Federation Network Manager Daemon)进程,实现对HPS网络的配置、初始化、监视、控制、恢复、分析和诊断。此功能与节点是否安装操作系统无关,因为这些指令直接由HMC发起,控制指令都是通过电源传输的,只要电源正常,就会响应执行,SWITCH的拓扑结构是在电源启动的过程中通过自检获得的。

每个HMC系统有一个RS232串口连接CSP(Common Service Processor)[2],毕业论文实现对主机的控制和管理,如开机、关机、关闭系统、重新启动等;有两个RS422串口分别连接节点和SWITCH机柜的两个BPA(Bulk Power Assembly)电源,实现对BPA的监视和firmware管理。所有的HPS都是通过BPA提供电源,对于每一个SWITCH,通过HMC将信号发送给BPA,再通过BPA 将控制信息通过SWITCH的DCA(Distributed Converter Assembly)电源传送给SWITCH,来实现对SWITCH的管理。

2.2 SWITCH初始化实现的功能

在启动SWITCH之前,首先要确保HMC已经正常启动;在SWITCH 机柜加电后,由SSP(SWITCH Service Processor)控制SWITCH的加电过程,在每一个SWITCH芯片的寄存器中记录本地以及相邻芯片的机柜号、端口号等信息。

在节点机柜加电后,每个SNI芯片寄存器中保存自己的机柜号和GX-BUS信息,并将这些信息传输给相邻的SNI芯片寄存器。

由HMC节点启动FNM进程,对所有的硬件控制器初始化,配置FNM 网络;网络配置好以后对FNM初始化,FNM 将与每个激活的SWITCH和SNI网络部件通信;将FRAME、CHIP、PORT、ROUTE、SWITCH等信息都保存在寄存器中,节点转入LPAR状态后将信息保存在内存中,SWITCH初始化完毕。

转贴于 2.3 故障原因分析

在2006年6月到9月期问,科研分区共更换了7块BPA机柜电源、8块SWITCH DCA电源、8块p655 DCA节点电源。

由于IBM高性能计算机系统的有些电源模块被更换,并且有些备件号发生了变化,虽然新备件可以实现对原备件的替代功能,但是新旧电源备件的微码版本部分存在不一致;而SWITCH的控制信息是通过HMC—BPA—DCA进行传送,电源相关部件微码版本的不一致影响了信息的正常传送,进而影响SWITCH的网络初始化,不能得到正确的网络拓扑结构,导致不能建立正常的SwITCH通路;而通过刷新一次机柜电源BPA同版本微码,使电源模块上的通信进程状态重新初始化(归零操作),清除了电源模块上的错误通信信息记录,可以将控制信息正确传送,重新建立了正确的网络通路。

GPFS文件系统不能正常读写主要是由于SWITCH网络通信不稳定,GPFS的通信频繁发生中断,所以GPFS的文件系统也会频繁异常上线或离线(mount或umount状态),使GPFS文件系统控制的有些硬盘上的NSD(Network Shared Disk)控制信息不一致,GPFS为了保证数据的安全性,系统自动对此NSD进行了隔离操作。

3 故障事件的分析和启发

从这次发生的故障情况来看,由于在系统本身设计和日常维护的过程中考虑了高可靠性和对于用户数据的一致性管理,因此在科研分区出现问题的情况下,并没有影响业务作业的正常运行,这是对系统高可靠性的一次检验;但同时通过这次故障事件,也发现了我们的许多不足,并且也为日常维护提供了一个经验和教训。

3.1 系统可靠性验证

由于在系统设计上考虑了用户文件系统高可用性的设计以及全局的用户环境一致性,职称论文 同时在日常维护工作中对用户文件系统都做了备份,因此对业务用户没有造成影响。

3.2 系统本身的问题

SWITCH设备故障率比较高:从系统投入运行以来,SWITCH设备的故障率就比较高。2006年5月1日到10月31日期问,科研分区就出现了39次SWITCH硬件故障,其中光纤卡故障22次,铜卡故障6次,主板故障1次、电源故障10次;业务分区有17次SWITCH硬件故障,其中光纤卡故障8次,电源故障9次。

故障诊断定位难:在对SWITCH设备维护时,光纤卡和铜卡的故障诊断相对容易,故障现象明显,有冗余连接,一般不影响系统和用户的正常使用;而SWITCH背板故障及电源微码不一致等故障,则不容易定位具体的故障点,对系统的影响也比较大。

3.3 日常维护及管理问题

日常维护不够深入:在日常的维护过程中,主要还是停留在处理现象明显的软硬件故障,并没有对系统的一些潜在故障进行分析研究,而且对系统了解不够深入,在出现大的故障时不知如何判断处理。

管理流程不完善:从本次故障来看,备件不能满足在重大情况下的处理要求;厂家技术支持不畅通,响应速度慢,这都直接延长了故障恢复时问。

4 后续工作和建议

此次故障发生后,陆续完成和制定了一些工作计划。

(1)完成了业务分区电源微码的检查。察看了业务分区SWITCH的微码版本,发现也存在需要重新安装的警告提示,但是由于报错的机柜比较少,并没有对系统造成影响,目前已经完成对业务分区电源微码的统一刷新。

(2)制定了IBM 高性能计算机系统业务应急备份方案。当遇到紧急情况时,能够快速评估当前状况并进行处理。

(3)完成了系统存储资源的扩充。扩大了目前用户的存储资源,并满足了业务应用系统备份的资源需求。

(4)完成了HPGS系统的微码升级。2007年4月已经将整个系统HPS的Service Pack版本级别升级到21。

(5)加强管理。督促厂家人员完善技术紧急支持的响应速度和流程,保证技术支持的畅通;同时要确保备件的充足可用。

(6)加强维护手段和交流。在日常维护中,工作总结 不仅是满足于简单的问题解决,需要深入分析诊断,找到问题的真正原因,避免潜在的隐患故障;同时要多通过学习以及技术交流,加深对全系统的了解,不断提高维护水平,提高自己的故障解决能力。

5 结束语

此次故障虽然没有对我们的业务造成影响,但是通过此次故障情况,我们看到了我们还存在的许多不足,需要我们在以后的工作中加以改进。通过不断地分析和总结,维护好我们的系统,保持系统高效稳定的运行。

参考文献

篇4

尽管如此,我国在高性能计算领域也取得了骄人的成绩。目前世界高性能计算机TOP500中,中国已经拥有29台高性能计算机,占世界总数的5.6%,居第四位。其中,星盈超级刀片计算机因为拥有自主知识专利,设计理念独到,实力倍为业界看好。

据了解,2004年,蚬壳星盈公司成功推出了一台运算速度为每秒4.046万亿次,实际运算效率高达84.35%的超级刀片计算机,乃世界同类产品中运算效率最高的。2005年,星盈GT4000型超级刀片计算机被列入了世界高性能计算机TOP500的第100位。

传统缺陷制约推广

当今社会,服务器已经进入了技术、应用和市场互动并迅速发展的新阶段,越来越多的领域都需要采用高性能计算机提高自身竞争力。如国防、气象、航天、交通、电信、金融、医疗、商务和科学等。然而,随着需求的进一步扩大,传统的高性能计算机在某些方面的不足更显突出,在一定程度上又制约着高性能计算机的进一步推广,主要表现在以下几个方面:

一、机群系统瓶颈。在气象服务、石油勘探、新材料、新药物研制等领域对计算任务要求都非常高,它们往往需要在较短的时间内解决一些数据规模庞大,算法结构十分复杂的问题。这就不仅需要对这些数据进行高速运算,而且还要求存储系统有着巨大的空间来支持。而目前传统机群系统很难达到相应的高速运算与海量存储要求。另外,机群系统内部的一些缺陷,如I/O接点的数量与计算节点的数量不匹配、I/O节点与存储设备之间的吞吐能力、节点间的大量的网络数据交换等,这些瓶颈都会严重的影响系统整体效率。

二、系统的稳定性与安全忧。由于企业常常要对数据进行大规模的海量运算,任何中断情况都会使之前的数据计算白忙一场,从而影响整个工作效率,因此保持系统运转的持续稳定性十分重要。而在安全性上,随着信息技术的发展,对企业来讲没有什么比核心数据失窃更为严重的事情了,而传统设计在数据保护方面考虑相对较弱。

三、可拓展性和现有资源的利用性较差。随着应用的深入,每一个企业的计算需求都可能逐渐增长,但它们往往不愿意“弃旧换新”,而是希望将新的计算节点循序渐进地添加到原有的系统中去,逐步扩展为一个“包含旧系统”的新系统,从而更大限度地保护原有资源。传统的机群系统,不仅购入的初始成本高昂,而且升级过程繁琐拓展性差,再加上各个厂家的技术标准各不相同,产品不能兼容使用。这些问题对企业来讲都是头痛的问题。

四、管理与维户的复杂性。部署多个服务器是一个耗时和资源密集的过程。管理员需要将每个服务器安装在机架中,进行电源和网络布线,并为其安装软件。在高密度的环境下,布线尤其是部署中令人头疼的难题之一。而一般的企业都缺乏专门系统运营与维护人员,一旦发生故障,将会使管理与维护工作十分麻烦。

先进设计理念引领

为了克服上述缺陷,星盈超级刀片计算机采用了一系列革命性的设计理念,其理论运算速度可超过每秒100万亿次浮点,资料存储量可超过1000万亿字节,达到美日等先进国家高性能电脑的水平。星盈超级刀片计算机中的每个“刀片”就是一个运算单元,可以在不停机的情况下随时增加或更换。如此设计可以使产品具有以下几种优势:

首先,星盈超级刀片计算机采用Infiniband等高带宽和低延迟的开放和标准的网络互联设备, 并且采用的存储网格更进一步为支持高性能计算机系统提供可伸缩的存储和I/O能力,消除了I/O瓶颈。值得一提的是,随着高性能刀片计算机的体系结构向基于标准的、机架密集的服务器的转变,数据中心将产生许多问题,星盈超级刀片计算机的体系结构将能够缓解和解决这些问题。使用星盈超级刀片计算机,Linux操作系统和InfiniBand等现代互联技术来建立的高性能计算机不仅能够提供高性能,而且能够提供高密度,改善可管理性,降低功率消耗,增强部署和可服务性,大大降低总拥有成本,可以帮助用户把计算资源最大化整合,提供了最大化计算性能密度。

其次,星盈超级刀片计算机支持最新RAID-6技术,确保存储数据安全。RAID-6加速技术使系统能够以最高性能运行,即使刚刚从多个磁盘故障中得以恢复也不例外。这种存储加速能力可为星盈超级刀片计算机提供更快的吞吐率,并可提高数据在输入输出硬盘时的可靠性。

再次,星盈超级刀片计算机将传统的高端服务器的所有功能集中在一块高度压缩的电路板中,然后再插入到机箱中。在同一系统里,星盈计算刀片和贮存单元可随时升级。通过独有的中板专利技术与内存的高性能I/O标准接口,升级只需增加刀片或贮存单元,不需要重新布线或配置,也无需更换系统及操作和应用软件,具有超长的使用生命,使得总体拥有的成本(包括购买、维护、机房、电力、人员和管理费用)大大降低。

最后,在安装星盈超级刀片计算机时,管理员只需要对机架进行安装和布线,单独的刀片服务器无需布线。由于多个刀片服务器可以共用冗余电源,因此最大限度地减少了机架布线。对于寸土寸金的数据中心来说,根据设计和供应商的不同,星盈超级刀片计算机能够使服务器的密度比目前1U的机架优化的系统增加100%到800%,更大的节约空间。

星盈高性能刀片计算机

篇5

随着IBM高性能计算机“走鹃”于2008年6月诞生,高性能计算机(HPC)迈入千万亿次门槛。用户对高性能计算需求的持续增长,推动着HPC规模越做越大。在由CPU构成的高性能计算的世界中,由于CPU计算性能的提升速度远远落后于高性能计算需求增长的速度,增加CPU的个数便成为提高HPC性能的主要途径。如今全球高性能计算500强(Top500)中已经出现内核累计总数多达20多万个的HPC。

但是,在提升性能的同时,CPU个数的增加也给HPC增添了复杂性,并带来可用性降低、系统功耗惊人、成本高居不下等问题,让HPC厂商日益感到头痛。于是,高性能计算厂商开始探索新的提升HPC性能的途径。IBM的“走鹃”就是采用CPU和Cell处理器的混合架构,AMD和Intel也都分别对外了各自的CPU+GPU(图形处理器)的混合架构。

作为GPU领域龙头老大的NVIDIA自然不会放弃在高性能计算这一CPU的传统领地炫耀性能的机会。它先是推出了CUDA架构,使得程序员可以用C语言对CPU和基于CUDA架构的GPU进行统一编程,从而解决了因编程复杂而被程序员敬而远之所造成的GPU应用难以普及的问题。进而,它又推出了面向高性能计算的Tesla系列GPU。2008年11月21日,NVIDIA在美国德克萨斯州奥斯汀市举办的2008超级计算大会上联手HPC的巨头Crayon推出个人HPC。与此同时,会上公布的Top500中,采用Tesla技术的HPC首战便占据了第29名的位置,标志着NVIDIA从个人HPC和高端HPC全面切入高性能计算领域。

为此,本报记者独家专访了NVIDIA高性能计算事业部总经理Andy Keane。

HPC中的GPU

记者:GPU在高性能计算中的性能已经到达了何种地步?

Keane:CPU的运算速度在很大程度上还取决于缓存的大小,而GPU则是在任务并行化后用大量的线程来进行运算。虽然CPU已经多核心化,可以多达8个内核,但在并行计算时,显然不是GPU上千个线程的对手。

比利时有所大学,以前用的是512个CPU组建的HPC,当他们了解到GPU的运行功能很强后,试着自己搭建了一台配置有8个GPU的台式机,结果性能竟与以前512个CPU的HPC不相上下。

记者:既然GPU的性能远远超过CPU,那么NVIDIA何时开始关注GPU的计算能力?

Keane:15年前,我们就开始针对3D游戏开发GPU了。但GPU的编程很复杂,因而应用主要是集中在图形显示领域。之后,我们开发了CUDA架构,你可以把CUDA想象成与x86相似的硬件架构,它允许应用开发者用他们熟悉的语言对GPU进行快速编程,从而为GPU拓宽了应用范围。现在,NVIDIA所有的GPU都支持CUDA架构。

记者:懂得计算机的人都知道,并行编程要比串行编程复杂得多。程序员如何在CUDA平台上对CPU和GPU统一编程?

Keane:尽管CPU与GPU之间在架构上存有很大的区别,但我们觉得CPU与GPU的结合才是最好的计算架构。于是我们在CUDA上推出了C语言编译器,程序员在开发应用程序时,只要对序列执行的程序代码和并行执行的程序代码简单地进行标注,C编译器就可以向PC解释哪部分该由CPU做,哪部分该由GPU做。

记者:CUDA的编程看来不难,那么搭建一个个人HPC难不难?

Keane:用Tesla组建个人HPC是件很容易的事。你只要把买到的Tesla卡插到PC主板上的PCI插槽,你的PC就变成了1台个人HPC。

记者:Tesla贵吗?

Keane:4个GPU的价格在9500美元~1万美元之间,3个GPU的Tesla价格为7000多美元。但与同等价位的工作站相比,我们的性能应该有百倍的提升。

竞争对手

记者:我们看到现在全球性能最高的HPC“走鹃”所采用的CELL处理器实际上就是一个集成了8个流处理器和一个CPU内核的处理器,而GPU也是由数百个流处理器构成的。你是如何看待CELL的?

Keane:CELL的编程要比CUDA复杂得多。CUDA本身就是一个GPU架构,我们所有GeForce、Quadro和Tesla产品线都可以很完美地对其提供支持。它的编程模式是很简单的,语言与C语言非常接近,编译器与C语言也基本一致。唯一的改变是将之前的串行计算更新为并行计算。在过去的一年中,CUDA积累了大量的应用程序,而且在美国,也有很多活跃的论坛讨论CUDA的编程问题。我们也在CUDA中文网站上开设了CUDA中国专区,上面有144个使用的案例。对于程序员而言,这些编码都是开放的。

记者:在基于Tesla搭建的HPC中,GPU与CPU从指令集上看是异构的。而英特尔最新展示的具有80个内核的Larrabee却采用的是x86指令集,从而实现了CPU和GPU在指令集上的兼容,对于程序员来说,这是否会比Tesla编程更为容易呢?

Keane:我并不这样认为。在NVIDIA的CUDA平台上,不管面对何种架构,编程人员都可以用很普及的C语言去对CPU和GPU进行统一编程。对于程序员来说,Tesla的编程是很简单的。而Larrabee无法用C语言来编程,程序员要学习这种新架构和它的语言并用两种语言分别对CPU和GPU进行编程。

记者:AMD选择GPGPU(通用GPU)来切入高性能计算领域,对此你有何见解?

Keane:关键要看它的普及率了。这里有两个数据:英特尔x86处理器市场占有85%的份额,AMD只占15%;同时,AMD的FireStream只有5%的使用率。你为客户定制产品的确会又好又快,但如果产量不高,成本无法有效摊薄,价格就会非常高。 而我们主要针对主流市场,用更加标准的界面来制作,让用户很容易使用,而且有能力承受。我们能够让很多研究人员将原本要跑到数据中心去做的计算转移到插有Tesla卡的工作站上,并很容易地获得高性能计算的体验。

应用领域

记者:TOP 500中,x86架构CPU已经占据了90%的地盘。请问Tesla进入高性能计算市场的机会有多大?

Keane:几乎是100%。我们强调的是异构计算,GPU不可能完全取代CPU,只是能显著地减少CPU的数量。如果我们从另外一个角度上看这个问题,其实全都采用一样的架构未必是件好事。如同在GPU领域,因为有我们GPU、Intel的Larrabee和AMD的ATI的存在,因此大家可以互相激励,充分开展竞争,刺激创新。但是服务器领域的架构几乎统一,这对创新是不利的。

记者:那么在工作站方面呢?

Keane:工作站的限制主要在于工作站机箱内部空间的限制,例如工作站的电源只能提供1000W的功率,那么,我们可以在这1000W之内给你提供尽可能高的计算性能,比如说1T的性能。

记者:无疑,Tesla个人高性能计算机的性能远好于现在的工作站,但目前工作站上的很多应用软件都是基于UNIX系统,厂商们愿意把它们移植到Tesla平台上吗?

Keane:这些开发商面临着决定应用何种并行运算解决方案的选择。其中之一为多核CPU解决方案,即将计算工作分配到双核、四核甚至八核上。这样,对于开发人员来说,如果他们要想通过并行计算来得到性能的提升,就必须将应用分解为4块甚至8块。这其中最大的挑战是如何将计算工作划分为完全均衡的4块或者8块。另外一种解决方案类似Intel的Larrabee,开放人员可以用比多核解决方案更为简单的方式解决并行计算的问题。但是针对并行运算,GPU架构可以非常简单地实现非常大规模的并行计算。如果你要按照时间和效率来衡量这几种选择方案,GPU无疑是效率最高的。

记者:未来工作站会不会被Tesla个人超级计算机替代?

Keane:对于任何使用集群的用户,都有应用Tesla GPU的需要。我将努力说服他们中的所有人。利用工作站进行高性能计算的用户也是我们的目标人群,我们也希望让他们认识到我们的好处。事实上,如果用户很看重预算和效率,对成本和时间很敏感,那么Tesla对他们来说就很有价值。

未来发展

记者:在CPU领域,虚拟化是一个很时尚的话题,Tesla也能虚拟化吗?

Keane:如果CPU可以做到虚拟化,那么GPU也可以做到虚拟化。因为他们都是基于处理器架构的。就好像将GPU作为CPU的一个资源,只要CPU可以实现虚拟化,那么GPU也可以作为CPU的资源实现虚拟化。

记者:Tesla现在使用C语言编程。我们知道C语言与硬件很容易结合,也易于控制。听说NV还要在Tesla上使用Fortran,这样会不会影响到效率?未来还会有其他语言吗?

Keane:Fortran是非常结构化的语言,并行计算的性能非常好,在GPU上的执行效率甚至更高。同时,在未来我们还将增加C++等语言。

记者:既然在Tesla计算机中,Tesla GPU要与CPU协同工作,那么,未来GPU和CPU会不会集成在一个芯片上?

Keane:我们不认为GPU和CPU将会融合。因为目前GPU的设计比CPU还要复杂,GPU拥有更多的核心,更高的内存容量,芯片的面积也很大。我们的客户也对计算性能和内存提出更高的要求。我们所能做的是提升制造工艺,从而降低芯片的面积。

我们当然可以把一个小型CPU集成进来,但这样对GPU计算性能的提升并没有益处。就高性能计算而言,高速异构计算架构是一个CPU搭配多个GPU,然后更多的CPU搭配更多的GPU,这样,GPU就可以发挥加速器的作用。

篇6

有人问,浪潮对高性能计算机有什么看法?也许发问的人应该首先弄清楚高性能计算机是什么。高端计算机=高性能计算=HPC=linpack?高端应用=高性能计算 =高性能科学计算=科研计算?事实上,我们应该把高端应用理解为高性能计算机,把高性能计算机理解为高性能科学计算,这与国外的理解是不太一样的。

像IBM和HP,在这一领域称得上垄断者,他们花了很少的精力来讲高性能计算,花了更多的精力来讲高端服务器,他们为什么这么做?其实,在总结了这些厂商在国内外的盈利情况之后,我们发现,高性能计算产品并没有为IBM这样的厂商带来很大的利润,反而是商业应用为他们带来了更多的收入。但目前我国做高性能计算研究的企业主要面向科研和高效市场,而要让这些用户拿出很多的钱来买一个产品是不现实的。这又是一个我国与国外的差异所在。

另外的差异就体现在研究方面。在国内,无论是企业界还是学术界,大家在讲到体系结构的时候会比较注重于集群,在其他重要体系结构的研究上投入较少,也就是说,国内的高性能计算体系结构以集群为主,对SMP/NUMA等体系结构的研究较少,过于依赖国外底层技术,对处理器、芯片组、交换互连的研究投入不足;重单一指标,不重综合指标,重系统浮点计算性能指标,对综合应用能力的重视不够;重视数值计算类应用,强调高端系统数值计算能力,不重视OLTP指标、SPECWEB等面向商业应用的指标。即使在高性能计算领域也有这样的问题,如比较注重计算能力的提升,而对应用建模的研究和算法这些方面的研究就比较弱一些。所以在这种情况下,我们应该在战略的角度上更加关注高端商业产业的发展,提供一些基础技术。

从目前来看,无论是国内还是国外的企业都很注重虚拟技术,对于如何把高端的服务器产品折合成小的服务器产品满足不同的应用,或者如何把小的产品整合成大的产品,来满足大的需求,也有不同的看法。未来的一个发展方向是,我们做出的中高端服务器产品要是一流的产品,而且能逐渐应用在越来越多的领域中。

篇7

第一,基于多核CPU技术的刀片服务器已经成为高性能计算的发展趋势。值得关注的是,排名全球第一的高性能计算机“走鹃”,采用的就是混合架构,并且涵盖了CELL芯片。

第二,GPU技术会给地球物理、高密度运算、可视化处理带来新机会。GPU技术被证明是一项加快计算、可视化、图像分析、模式识别、计算机视觉完美结合的技术。东方地球物理公司研究院(以下简称东方地球)也在做应用GPU技术的相关实验,并且应用了768个节点。整个中石油一共用了7套系统做实验,应用环境就是油田,并且目前已经取得了一些进展。国外的一些同行公司也在应用了GPU的混合架构上成功地开发了自己的应用软件。随着地震软件商对GPU技术的支持,可视化处理解释系统、叠前迁移数字建模的效率很可能会大幅度提升。目前这项技术存在的最大问题是很少有支持这个平台的应用软件。

第三,高密度、多路服务器技术将会成为地震处理和综合解释研究的新平台。我们与专家交流后认为,四路服务器可能是比较合适的选择,不仅胖节点可以采用多路服务器,包括东方地球现在进行的信息化建设也是采用多路服务器来作为一个大平台,分区给不同应用使用。

第四,万兆以太网将给高性能计算的发展带来新生机。尽管目前由于成本太高,万兆以太网和Infiniband的应用市场不及千兆以太网,但它们还是相当有竞争力的。1995年新兴的网络技术只能提供10兆以太网,到1998年,已经发展成为千兆以太网,1999年更推出了万兆以太网。如今,超万兆以太网已经脱离了实验阶段。有专家预测,到2011年~2018年的时候,网络技术才会出现比较大的改进,万兆以太网也会因为成本的降低而逐步替代目前的千兆以太网。

篇8

关键词:高性能计算;应用;中医药

中图分类号:R-3 文献标识码:A 文章编号:2095-5707(2016)06-0010-03

Abstract: High performance computing (HPC), as a new and important research tool, has been applied in many fields successfully. Application of HPC in the TCM field is still in the exploratory stage. HPC in the future may be innovatively applied in the field of genomics Chinese herbal medicine, virtual medicine screening of new TCM, TCM data mining and big data analytics, modeling and simulation and so on.

Key words: high performance computing (HPC); application; TCM

高性能计算是计算机科学的一个分支,研究并行算法和开发相关软件,致力于开发高性能计算机。高性能计算是世界各国竞相发展的前沿技术,是体现一个国家综合实力和科技竞争力的重要指标。

科学计算作为科研方法变革的产物,已经发展成为与传统的理论、实验并驾齐驱的第三种科研方法,并且日益成为越来越重要的科研方法。科学计算方法的运用,是高性能计算应用的基础和前提条件,而使高性能计算真正发挥作用主要取决于高性能计算的应用研究水平[1]。本文对于促进高性能计算未来在中医药领域的应用、丰富中医药信息学的研究内容及由此产生的中医药科研方法的创新具有推动作用。

1 高性能计算应用概况

1.1 我国在高性能计算应用领域仍处于落后水平

在高性能计算的研发和应用领域美国一直处于世界领先水平,日本和欧洲国家紧随其后长期位居世界先进行列。近年来,我国在高性能计算硬件的研发方面取得了突破性进展,通过自主创新逐步掌握了一批硬件研发的关键技术。中国国防科技大学研制的天河系列超级计算机连续多次在世界超级计算机排行榜中名列首位,标志着我国高性能计算的硬件研究水平目前已经接近国际先进水平。但在应用软件方面的发展严重滞后于硬件的发展水平,自主开发的高性能计算应用软件严重匮乏,需要大量购买和引进国外开发的应用软件,重要和关键部门的应用受制于人[2]。应用软件是高性能计算应用的基础,由于应用软件研发水平的严重落后,目前我国在高性能计算应用领域仍处于落后水平。

1.2 国内外高性能计算主要的应用领域

高性能计算作为崭新和重要的科研工具,目前已经在众多的领域得到了成功应用,各种前沿科学研究、技术开发和工程设计都越来越多地使用了高性能计算,高性能计算已经日益成为科技创新的重要力量。目前主要的应用领域包括气象数值模拟与预报、地震预报、纳米技术、生物医学、环境科学、空间科学、材料科学、计算物理、计算化学、流体力学、地震三维成像、石油勘探、天体星系模拟、大气与海洋模拟、固体地球模拟、工业设计、核武器研究、全球气候模型、湍流分析、飞行动力学、海洋环流、流体力学和超导模型等[1]。在生物医学领域的应用目前主要集中在人类基因组学、蛋白质组学、药物设计、分子动力学模拟等方面。

1.3 高性能计算应用的瓶颈

高性能计算虽然已经在众多领域得到了成功应用,但由于技术难度等的限制,仍然属于高投入高产出的非普及型应用。目前制约高性能计算应用的主要问题包括软件开发的技术难度非常大,系统使用成本过高,不仅体现在软硬件购置费用昂贵,而且系统运行维护成本过高,大型系统的年电费需上千万元[2]。比较高精尖的应用范围、非常高的技术要求和过高的使用成本,这些都限制了高性能计算的广泛应用。

2 高性能计算在中医药领域应用的可行性分析

2.1 高性能计算在领域应用的前提条件

高性能计算在领域应用的条件首先需要应用领域具有较高的科研水平,特别是能够通过科学计算的方法建立相应的数学物理模型和应用软件来解决实际问题,利用高性能计算才有可能促成应用领域研究水平的大幅度提高。通过对高性能计算应用领域的最高学术奖戈登奖获奖项目的分析,这些获奖的应用项目绝大多数都具有多学科交叉融合的背景,这反映了高性能计算的应用需要应用领域与计算机科学、数学等学科的跨学科合作[3]。随着高性能计算的应用,近些年高性能计算与应用学科的交叉学科不断涌现,产生了计算化学、计算物理学、计算生物学等许多新兴学科,这些交叉学科的产生标志着高性能计算在这些领域得到了高水平应用。

2.2 计算生物学的启示

计算生物学是一门以生命科学中的现象和规律作为研究对象,以解决生物学问题为最终目标,通过模拟和仿真的方法对生物学问题进行定量和定性研究的新兴学科。计算生物学与生物信息学比较,最大的不同之处在于生物信息学侧重于生物信息的采集、存储、处理和分析,而计算生物学侧重于对生命现象进行研究、解决生物学问题[4]。目前计算生物学领域的研究主要集中在蛋白质行为的模拟、药物分子的筛选、基因测序等方面。

虽然目前中医药领域还不满足高性能计算的应用条件,但通过借鉴计算生物学的研究方法,未来有可能在中医药领域开展具有创新性的高性能计算的应用研究。

3 高性能计算在中医药领域应用的展望

3.1 中药植物药的基因组学

基因组学是遗传学的一个分支,研究生物基因组和如何利用基因,涉及基因作图、测序和整个基因组功能分析,研究内容包括以全基因组测序为目标的结构基因组学和以基因功能鉴定为目标的功能基因组学。基因组学是高性能计算应用的一个重要方向,没有高性能计算人类的基因组计划就不可能实现,高性能计算已经成为基因组学研究不可或缺的科研工具。随着基因组学研究的深入、技术的成熟和成本的大幅度下降,使得基因组学的研究逐渐由人类的基因组学扩展到动物、植物等多个相近领域。利用高性能计算在基因组学方面成熟的应用软件开展中药植物药的基因组学研究未来有可能是高性能计算在中医药领域的重要应用。

3.2 中药新药的虚拟药物筛选

利用高性能计算进行虚拟药物筛选目前已经成为西药新药开发的一条崭新和重要的途径。新药研发的核心工作之一是从大量的化合物样品库中发现有药理活性的化合物,计算机虚拟筛选辅助新药开发是利用统计学和分子模型化技术来指导新的先导结构的发现或设计,从而减少实验室的工作量,缩短开发周期、降低开发成本。近年来对多靶点药物的研究已经成为国际上新药开发的一个重要的研究热点,中药是天然的多靶点药物,蕴含着巨大的新药创制的潜力[5-6]。应用高性能计算开展中药新药的虚拟药物筛选有可能成为中药新药开发的崭新途径。

3.3 中医药数据挖掘和大数据分析

数据挖掘是从大量的、不完全的、有噪声的、模糊的、随机的实际应用数据中,提取隐含在其中的、人们事先不知道的、但又是潜在有用的信息和知识的过程。大数据分析是指对规模巨大的数据进行分析,目前世界各国对大数据分析技术高度重视,大数据被视为国家重要的战略资源。数据挖掘和大数据分析是高性能计算应用的重要领域之一。目前中医药领域的数据挖掘和大数据分析主要集中在对方剂配伍规律、中医证治规律等的研究,现有的研究水平还不能构成对高性能计算的迫切需求。随着数据挖掘和大数据分析在中医药领域应用水平的提高,数据研究的内容、方法和结果的日趋丰富,随着数据量的积累和研究方法复杂度的提高,中医药数据挖掘和大数据分析未来有可能成为高性能计算在中医药领域富有潜力的应用。

3.4 模拟与仿真

模拟与仿真是依靠计算机通过数值计算和图像显示的方法,对工程、物理、生物等各类问题进行研究。高性能计算不仅具有强大的计算功能,还可以模拟或代替由于受经济或者其他条件限制不能进行的实验。2013年10月,哈佛大学教授Martin Karplus、斯坦福大学教授Michael Levitt和南加州大学教授Arieh Warshel因“为复杂化学系统创立了多尺度模型”而获得诺贝尔奖,评委会声明中称这一成果意味着对于化学家来说计算机已经成为同试管一样重要的工具[1]。

计算机模拟方法在生命科学中已经得到了迅速的发展和广泛的应用。高性能计算应用领域的最高学术奖戈登奖获奖项目“在20万CPU核和异构体系结构上的千万亿次持续性能血流模拟”,该项目模拟了血液流动状态,可以辅助血栓的早期病理学诊断及抗血栓药物的研究。另一项获奖项目“呼之欲出的猫:包含109规模神经元、1013规模突触的大脑皮质模拟”,对神经元和突触规模与猫大脑相当的大脑皮质功能进行了模拟,并以此为基础开展了认知计算的研究[3]。此外国内外大量的高性能计算被用于分子动力学模拟,分子动力学模拟是一种数值模拟方法,通过将分子抽象为由化学键连接的质点按照基于牛顿力学的数学模型迭代求解分子体系的行为。利用高性能计算进行分子动力学模拟已经成为化学和生物学研究中与实验手段相当的标准研究方式[7-8]。模拟和仿真技术在中医药研究中的应用未来有可能成为高性能计算在中医药领域创新性的应用。

4 小结

高性能计算的应用是使高性能计算真正发挥作用的软实力,是高性能计算领域重要的研究内容。高性能计算的应用需要多学科的交叉与合作,计算生物学的产生标志着高性能计算在生物医学领域得到了成功应用。

高性能计算在中医药领域的应用目前还处于探索阶段,尚不具备大规模应用的条件和基础。未来有可能通过借鉴计算生物学的研究方法在中药植物药的基因组学、中药新药的虚拟药物筛选、中医药数据挖掘和大数据分析、模拟与仿真等领域进行开创性的应用研究。高性能计算在中医药领域的应用将会对中医药科研方法的创新与发展产生深刻的影响。

参考文献

[1] 顾蓓蓓,武虹,迟学斌,等.国内外高性能计算应用发展概况分析[J].科研信息化技术与应用,2014,5(4):82-91.

[2] 周兴铭.高性能计算技术发展[J].自然杂志,2011,33(5):249-254.

[3] 张理论,邓小刚.戈登奖――分析与思考[J].计算机工程与科学, 2012,34(8):44-52.

[4] 徐书华,金力.计算生物学[J].科学,2009,61(4):34-37.

[5] 朱伟,罗颂平.治疗输卵管阻塞性不孕的中药多靶活性成分计算机虚拟筛选[J].时珍国医国药,2012,23(6):1531-1532.

[6] ,孙晓波.网络药理学:中医药现代化的新机遇[J].药学学报,2012,47(6):696-703.

篇9

技术的进步正在带来资源的解放。在石油勘探领域,这绝不是一句空话。在高性能计算逐渐成为石油勘探海量数据分析的基础保障后,每一次技术的演进都会带来勘探效率的提升及勘探技术革新的可能。所以,对于更强大的高性能计算技术的出现,石油勘探行业甚至已经从“需求”变成了“渴求”。业内众多研究机构一直在期盼数年后才会成熟的、比目前全球最先进高性能计算技术强大数百倍的百亿亿级(即每秒能实现百亿亿次浮点计算)高性能计算技术能够更快到来,为其所用。但在今年召开的以石油行业应用为核心的第七届高性能计算(HPC)及企业解决方案研讨会上,记者发现,随着国内石油勘探难度的加大,用户对更强、更先进的高性能计算平台和相关技术的需求也出现了新的变化。

开源+节流 化解“找油难”

在今年的研讨会上,东方地球物理公司研究院处理中心总工程师赖能和特别强调了石油勘探行业目前面临的三大“计算”挑战:可控震源高效采集技术的快速发展和广泛应用,使日产数据采集量直线上升,计算压力进一步加大;高密度高覆盖采集提高了勘探的精度,使精细化的数据分析成为可能,对计算能力的提升产生了更强烈的需求;高密度采集成为一种新趋势,数据体越来越大,导致了计算效能的降低。

和去年相比,东方地球物理公司研究院处理中心今年承接的高密度海量数据3D项目更多、数据体也更大。赖能和告诉记者,处理中心目前承载的萨科桑3D、塔里木哈7、新疆玛湖、新疆大庆3D、博孜3D等30个宽方位资料和科研攻关项目共涉及19029平方公里、384.8TB的数据量,均是采用高密度海量数据处理。这对处理中心的软硬件处理能力、技术和资源配置都带来了巨大压力。

事实上,东方地球物理公司研究院处理中心的压力恰恰来自“找油难”。石油是不可再生资源,当大区块开发告一段落后,石油勘探业一方面要用更精细化的手段在原有开采区块发掘新机会,一方面则要积极向海洋拓展或到过去“看不上”的区域去找油。这种转变带来的直接影响正是赖能和所说的因数据体量飞速增长而产生的计算压力。“地质结构越来越复杂,对计算的需求也会越来越大。以海洋石油的开采为例,其计算量往往要比陆地石油开采大好几倍。近年来主流软件的演变从时间偏移到深度偏移再到逆时偏移,计算量越来越大。尽管集群单个节点的计算性能在提升,但集群节点量的增速也并没有降低。”英特尔(中国)企业解决方案部能源行业资深企业客户经理杭晓东认为石油勘探行业产生的“开源”需求,仅依靠提升CPU的计算能力已无法满足,这也是让英特尔改变产品发展方向,从异构向微异构调整的原因。今年,英特尔推出的Xeon Phi协处理器就是这样的产品,在提升单点性能

得到大幅提升,从而让高性能计算的效能提升。

在英特尔数据中心及互联系统事业部技术计算和平台应用支持团队平台架构师何万青看来,高性能计算技术不仅能帮用户“开源”,还能帮用户“节流”,以提高产量。他说:“Xeon Phi的出现提供了一种可能性——用比较少的节点提供更高密度的计算能力。如野外的数据采集工作,就可以因为显卡被集成到处理器中的特性而实现现场粗粒度的计算处理工作,减轻数据总量负担。”云与大数据应用的可能

高性能计算与可视化应用难以落实到云计算系统的现实,曾一度让业界认为“云”将与石油勘探行业无缘。目前,对非结构化数据的分析更有价值的Hadoop,对于几乎没有非结构化数据的石油勘探行业似乎也是无用之物。云计算与大数据真的不适合石油勘探行业吗?这个问题已经出现了新的答案。

在石油行业,斯伦贝谢、兰德马克、Nice等服务公司正在提供功能较为完整的石油软件云服务解决方案,并已被多家国际知名石油公司所采用。中石油也已经启动了云技术平台建设项目。

“三年前我们开始探讨虚拟化机制,尝试勘探开发上的一些应用。去年正式立项做云计算的技术测试、跟踪并组织队伍,主要进行四点应用的实验,今年争取搭一个实用的环境。”中国石油大庆油田公司勘探开发研究院总工程师张铁刚如是介绍了中石油云计算平台项目的进展情况。他说,目前中石油总部的云计算平台主要在考虑如何实现数据中心的整合、资源优化、高效利用,结合能源应用的特点,让云平台在地学综合研究、办公经营管理业务以及生产管理方面发挥价值。

对于高密度采集这类应用,中石油已经完成了基于虚拟化技术的实验,实验证明云平台确实可以大幅降低地学应用研究的成本。张铁刚很看好云平台在中石油生产管理效率提升和办公运维管理简化方面的前景。据他介绍,初期测试结果显示,通过资源整合,中石油可以将各单位门户服务器的利用率从20%提高到70%,将专业应用服务器的利用率从20%提高到40%。他直言,在中石油云技术平台建设项目中,英特尔提供了很多重要的技术支持,特别是将其为互联网公司构建云计算系统的经验,传递到了高性能计算领域。

在石油勘探业,高性能计算集群规模越来越大,却未必能带给用户最佳的投资回报。计算的高峰期资源不足,低谷期资源却被闲置。特别是,在集群空载状态下同样要支付巨额电费。与互联网企业的需求一样,不少高性能计算用户也希望能弹性调配计算资源,分享低谷期的计算平台,用于日常生产、办公。今天,中石油的尝试已经把云的设想变为现实。

石油勘探行业是个典型的海量数据行业,但它对数据处理的需求与大数据目前的定义还存在很大差距。虽然目前石油勘探行业的典型应用还没有必须依赖Hadoop的需要,但赖能和认为,这项新技术依旧值得他们长期跟踪。因为如果Hadoop发展到了适合其应用模型时,就会成为大幅降低硬件采购成本的一个选择。

相关链接

跳出“石油”看高性能计算

篇10

关键词:聚羧酸系高性能减水剂混凝土 减水率

前言

近年来,我国的基础建设如高铁、公路、机场、大坝、市政工程等一直保持高速增长,同时也推动了混凝土外加剂技术的飞速发展。混凝土外加剂的发展大致可分以下几个阶段:第一阶段是起步阶段,以普通减水剂木质素为代表;第二阶段以萘系高效减水剂为代表的发展阶段,涌现了三聚氰胺、氨基磺酸盐系、脂肪族减水剂等多种减水剂;第三阶段即现阶段,是混凝土外加剂走向高科技领域的阶段,以聚羧酸系高性能减水剂为主要代表。自20世纪80年代后期,欧美等国家开始对聚羧酸系减水剂进行研究开发,并于90年代中期开始推广应用,其中日本推广比较成功。与传统的减水剂相比它具有掺量少、减水率高、碱含量低、强度增加大、塌落度损失小、环境友好等特点。同时,萘资源的紧缺 、工业萘价格的不断上涨、萘系减水剂生产周期较长、环境污染等问题日益突出,也使聚羧酸系减水剂的应用势在必行。它必将代替萘系减水剂,成为主流产品。本文介绍的聚羧酸系减水剂生产工艺过程简单,所有原料基本全部转化为减水剂,不需要分离提纯,无三废排放,所合成的减水剂质量稳定,非常适合工业化生产。

1聚羧酸系减水剂的作用机理

混凝土中掺入减水剂后,可在保持流动性的条件下显著地降低水灰比。减水剂产生减水的效果主要是由于混凝土对减水剂的吸附和分散作用。而减水剂实际上就是一种使水泥粒子高度分散并使分散体系稳定的表面活性剂,分散效果越好,体系越稳定,减水效果越好,其混凝土的性能就越好。而水泥粒子的分散稳定性又取决于吸附表面的活性剂的静电斥力和立体稳定效应。据DLVO理论,水泥在水溶液中醚键的氧与水分子反应形成强力的氢键,并形成亲水保护膜,据分析立体保护膜提供了分散稳定性。

传统的减水剂在被水泥颗粒表面吸附后呈刚性链平卧吸附状态,立体稳定效应没有发挥出来。而聚羧酸系减水剂一方面由于-COOH、―SO3负离子提供静电斥力,另一方面聚羧酸系减水剂分子结构中醚键与水分子形成氢键,从而形成亲水性立体保护膜,该保护膜既有分散性又提供了水泥粒子的分散稳定性,因此聚羧酸系减水剂在低水灰比条件下能够更好的保持混凝土的工作性能及坍落度 。

2试验

2.1合成原料:聚乙二醇(分子量1000)、引发剂、阻聚剂、甲基丙烯酸、丙烯酸羟丙酯、催化剂、自制A料和B料。

2.2仪器设备:电子称、分析天平、电热套、磁力搅拌器、温度管、烧杯、恒温水浴锅 、水泥净浆搅拌机、60L单卧轴式强制搅拌机等。

2.3试验原料:鼎鑫普通硅酸盐水泥、曲寨普通硅酸盐水泥、正定河砂、鹿泉人工碎石

2.4合成步骤

大单体的合成:称取定量的溶融的聚乙二醇、催化剂和阻聚剂在100℃~120℃下进行酯化反应,时间约2个小时,测定酯化率合格后,反应结束。

减水剂的合成:将定量的大单体和甲基丙烯酸、丙烯酸羟丙酯等按比例混合,加入助剂A料和B料在水溶液中聚合,时间约为5小时,然后用浓度为32%的液碱中和至 pH值6-7即得。

2.5水泥净浆流动度试验

试验参照GB8077-2000《混凝土外加剂匀质性实验方法》进行,称取水泥300g,水87g,外加剂掺量为0.20%时测定掺不同羧酸减水剂的水泥净浆流动度,并以此作为表征其性能的参数。

2.6混凝土减水率试验

减水率测试按国家标准GB8076-2008《混凝土外加剂》测试坍落度损失。

2.7 凝结时间的测定

参照GB/T1346-2001《水泥标准稠度用水量、凝结时间、安定性检测方法》测定水泥净浆凝结时间。

3结果与讨论

3.1减水剂的匀质性指标

按照国标GB8077-2000《混凝土外加剂匀质性实验方法》检测所合成的减水剂匀质性项目指标.见表1.

表1 聚羧酸系减水剂匀质性指标

由匀质性指标可知,所合成的减水剂氯离子几乎没有,碱含量也比较低,完全符合混凝土配制的要求。

3.2水泥净浆流动度试验

分别用鼎新水泥P.042.5和曲寨水泥P.042.5两种不同品牌的水泥,用本试验羧酸(代号为A)和某品牌羧酸减水剂在三个不同掺量(掺量以固体计)下进行对比试验。见表2

表2水泥净浆流动度试验情况

从上表可以看出,A 羧酸系减水剂对不同品牌的水泥适应性较好,在掺量允许范围内随着掺量增加,净浆流动度逐渐增大,且状态良好。与同类羧酸减水剂相比性能也具有一定的优越性。但从经济角度讲,推荐掺量为0.20%。

3.3不同掺量的减水率试验情况

本实验采用鼎新水泥P.042.5和基准水泥P.042.5 两种水泥分别进行测试,且分别采用0.12%、0.16%、0.20%三个不同的掺量予以确定。 结果见表3。

表3A羧酸减水剂减水率情况表

从上表可以看出A羧酸减水剂的减水率随着掺量的增加明显的增大,而且其在掺量较低时仍具有很高的减水率。

3.4混凝土性能试验情况

本实验采用鼎新水泥P.042.5 为试验水泥,比较本试验羧酸(代号A)和某品牌羧酸在相同掺量0.20%下的混凝土性能。详见表4

表4不同羧酸的混凝土性能试验表

从上表可以看出,A羧酸减水剂所表现出的性能指标均符合GB8076-2008标准要求,且在同掺量下性能指标优于某品牌羧酸产品,所表现出的高减水率和增强性有利于配制高标号或大坍落度要求的混凝土。

4结论:

用聚乙二醇、催化剂和阻聚剂、甲基丙烯酸、丙烯酸羟丙酯等原料两步合成出性能优异、质量稳定的聚羧酸系高性能减水剂。

本工艺生产的聚羧酸系高性能减水剂碱含量小于1.5%,且基本不含氯离子,无毒,对环境无污染,属绿色环保产品。

本工艺生产的聚羧酸系高性能减水剂具有较高的减水率,适于配制商品混凝土、泵送混凝土、高强高性能混凝土等。

参考文献

[1]郭延辉等.聚羧酸高性能减水剂及其应用技术―现状、发展趋势和我们的任务.聚羧酸系高性能减水剂及其应用技术.北京:机械工业出版社 ,2005.8

[2]姜国庆.日本高性能AE减水剂的研究进程及应用现状.化学建材,2000(2):42

[3]朱俊林等.聚羧酸系高性能混凝土减水剂的研制.聚羧酸系高性能减水剂及其应用技术.北京:机械工业出版社 ,2005.8