1、XXXX 高性能计算平台建设方案XXXXX 2013 年 4 月Xxxxx 第 1 页目 录1 概述 21.1 背景概况 . 21.2 建设内容 . 31.3 设计原则 . 32 总体架构 53 高性能计算平台硬件系统 . 63.1 平台架构图 . 63.2 主要设备选型 . 83.3 Cluster 集群系统 93.4 计算节点 . 10 3.5 管理节点 . 10 3.6 I/O 存储节点 11 3.7 网络系统方案 . 错 误!未定义书签。3.8 管理网络 . 12 3.9 监控网络 . 12 3.10 存储系统 . 12 4 高性能计算平台软件系统 . 13 4.1 64 位 Linu
2、x 操作系统 . 13 4.2 集群管理软件 . 14 4.3 作业调度系统 . 14 4.4 并行文件系统 . 15 4.5 集群并行计算环境 . 15 4.6 标准库函数 . 16 4.7 标准应用软件 . 16 5 项目经费预算 . 17 5.1 经费来源 . 17 5.2 经费支出预算 . 17 附页高性能计算平台技术参数要求 18 Xxxxx 第 2 页1 概述1.1 背景概况20 世纪后半期,全世界范围掀起第三次产业革命的浪潮,人类开始迈入后工业社会信息社会。 在信息经济时代, 其先进生产力及科技发展的标志就是计算技术。在这种先进生产力中高性能计算机(超级计算机)更是具有代表性。时
3、至今日,计算科学(尤其是高性能计算)已经与理论研究、实验科学相并列,成为现代科学的三大支柱之一。三种科研手段中, 理论研究为人类认识自然界、发展科技提供指导,但科学理论一般并不直接转化为实用的技术; 实验科学一方面是验证理论、 发展理论的重要工具, 另一方面, 它是在理论的指导下发展实用技术, 直接为经济发展服务;计算科学的发展也有相当悠久的历史, 只是在计算机这一强大的计算工具问世之前, 计算只能利用人类的大脑和简单的工具, 计算应用于科学研究有天然的局限性,限制了它作用的发挥; 随着计算机技术的发展, 使用科学计算这一先进的技术手段不断普及,逐渐走向成熟。 科学计算可以在很大程度上代替实验
4、科学, 并能在很多情况下, 完成实验科学所无法完成的研究工作。 科学计算也直接服务于实用科技,并为理论的发展提供依据和机会。 在许多情况下, 或者理论模型过于复杂甚至尚未建立, 或者实验费用过于昂贵甚至不允许进行, 此时计算模拟就成为求解问题的唯一或主要手段了。目前, 高性能计算已广泛应用于国民经济各领域, 发挥着不可替代的重要作用:a) 基础学科中深入的知识发现,问题规模的扩大和求解精度的增加需要更高性能的计算资源。例如,计算立体力学、计算材料学、计算电磁学。b) 多学科综合设计领域中大量多部门协同计算需要构建高性能的综合平台。例如,汽车设计、船舶设计。c) 基于仿真的工程科学结合传统工程领
5、域的知识技术与高性能计算,提供经济高效地设计与实践方法。 例如, 基于仿真的医学实践、 数字城市模拟、 核电、油田仿真工具、新材料开发、碰撞仿真技术、数字风洞。Xxxxx 第 3 页d) 高性能计算提升众多行业服务、决策的时效性,提高经济效益。例如,实时天气预报、 城市交通控制、视频点播服务、 动漫设计、 网络游戏、基于 RFID的货物跟踪、智能电子商务。e) 数据密集型应用需要高性能数据处理,以应对数据爆炸式增长带来的难题。 例如, 高能物理实验数据处理、 遥感数据处理、 商业智能、 生物信息学、 RFID数据挖掘、金融业分析抵押借贷、移动电话流量分析。1.2 建设内容高性能计算平台是面向全
6、校提供高速计算服务的公共计算平台,主要运行科研计算任务, 并且能够根据应用任务对硬件资源的不同需求, 动态分配和调整平台资源,管理计算作业。用户通过校园网或 VPN远程提交计算作业、获取计算结果,并能够根据权限调整,实现权限控制,硬件细节对用户透明。用户界面实现图形化交互窗口和 SSH登陆相结合方式。平台的主要硬件设备有:管理节点、计算节点、存储 IO节点、 Infiniband 交换机、高速存储、千兆以太网交换机;软件方面有: 64位 Linux 操作系统、并行开发环境、并行文件系统、作业调度管理系统、硬件集群管理系统等,利用高速infiniband 网络互联构成计算环境, 通过并行计算支撑
7、软件和作业调度系统使它们协同工作。平台支持同时运行 Ansys、 Fluent 、 Gauss、 Materials Studi 、 ADMS、 Opera、HFSS、 MTSS、 MAGIC、 CST、 Icepak 等商业软件,并支持 C( C+)、 Fortran77/90等语言的编译和运行环境,以保证学院自编应用程序的计算求解需求。1.3 设计原则高性能计算平台应具有处理大规模的复杂运算,尤其是浮点运算的能力。它将为全校提供优化设计、分析、验证的手段,最终实现提高科研质量、缩短科研周期、降低科研成本。因此,方案设计以用户现场测试结果为基础,根据用户对Xxxxx 第 4 页未来应用模式及
8、业务量需求预测为前提,强调高性能以及可行、合理和低风险。架构设计和系统选型遵循以下原则:先进性本系统方案所采用的技术既要符合业界的发展方向,又要在未来几年内仍具有很高的技术先进性, 保持在同类系统中的领先地位。 这样有利于提高整个系统的计算与处理能力,保证系统的使用周期。有限投资获取最大计算性能在有限的投资前提下,高性能计算平台应具有优秀的处理能力,它不仅具有符合要求的峰值性能 (Peak Performance) ,更重要的是应具有稳定的应用性能( sustained performance )。各种复杂的研究课题在本系统中能够得到准确、快速的计算结果。可扩展性随着对计算机系统性能的要求不断
9、提高,高性能计算平台应具有较强的扩展能力,可以方便地实现节点增加、系统扩充和升级,以有效保护前期投入。建议采用第三方集群管理和作业调度专业软件, 集成安装与硬件设备无关, 计算节点的扩展不受硬件品牌限制。开放性和兼容性系统应符合公认的工业标准,包括体系结构,硬件, I/O, 网络,操作系统,开发环境和开发工具等。便于和其他平台上的系统互操作。应用开发软件丰富本系统的平台上应具有丰富的软件资源, 能够提供研究课题的解决方案和相应的软件系统。例如高性能计算方面的开发环境和应用开发软件, linux 、专业平台软件商 , 不仅提供处理节点间的协调和通信的中间件, 使整个系统节点能够真正实现合作,负载
10、均衡,还能针对不同应用需求,提供一系列并行计算应用。性价比优越本系统在性价比方面在同类系统中应具有明显的优势,能满足用户应用的同时,充分考虑后期运维费用,尽量采用绿色节能型设备,降低运维功耗,比如采Xxxxx 第 5 页用刀片式服务器。管理简单,用户易用尽量减少数据中心的设备管理难度,简化架构,底层硬件对用户透明,本着不改变设计师原有使用原则的基础上选择合适的软件架构, 突破集中式资源部署应用难的屏障,实现应用简单易用的目的。综上所述,本项目的建设,在遵循统一领导、统一规划、统一标准、统一组织的建设原则之下,最大程度上保证系统按照预期的目标顺利实施。2 总体架构根据我们对学校高性能计算平台的需
11、求调研分析,以及其它高校的高性能计算实验室的考察,结合实际应用需求、 当前计算规模大小、 存储需求量等一系列的因素, 充分结合总体设计原则,针对学校高性能计算应用的特点, 从满足应用需求的角度出发,建立一个高可扩展、易管理的 Cluster 高性能计算平台环境。主要是基于计算网络、 存储网络、管理网络、 监控网络的一体化网络建设的高性能计算集群系统:计算网络采用 Cluster 、高速 InfiniBand 计算网与千兆以太管理网协同工作的架构。计算节点采用刀片服务器。存储网络大部分数据都存放在 FC架构存储系统中,选用低端扩展容量大的磁盘阵列,利用 SAN交换机互联, 通过存储 I/O 节点
12、为高性能计算平台提供存储服务, 便于维护、管理和备份。管理网络通过资源调度管理软件管理整个高性能计算平台。用户通过网络远程访问高性能计算平台,获取高性能计算平台的计算资源进行求解运算。监控网络Xxxxx 第 6 页通过基于硬件设备的专业集群管理软件对硬件系统进行集中管理、 配置, 减轻管理维护人员的工作负担,为运维人员提供高效便捷的管理方式。硬件部分应包括:计算节点(集群节点和小型机节点)管理节点I/O 节点高速互连系统软件部分应包括:操作系统集群管理软件作业调度系统并行文件系统并行程序开发环境数学库、并行库标准应用软件客户应用软件3 高性能计算平台硬件系统3.1 平台架构图平台整体架构图如下
13、:根据应用需求,小型机待今后扩展建设。Xxxxx 第 7 页采用 32 节点的 Cluster 高性能计算集群(每个计算节点 Intel Xeon X5650 2Processors/6Cores/24G 内存) ,主要运行分布式计算应用,利用 MPI现实并行计算,提高应用效率。目前采用 1 台管理节点作为高性能计算平台的管理服务器, 以后根据应用需求将管理节点增加到 2 台。目前采用 2 台存储节点作为高性能计算平台的存储 I/O 节点, 以后根据应用需求扩展存储 I/O 节点。32 节点高性能计算集群节点、 2 节点 I/O 服务器集群、 1 台管理节点均通过带宽 20Gbps Infin
14、iband 高速网络互连。计算集群节点通过 20Gbps Infiniband网络连接 I/O 节点,通过 I/O 节点的专门并行文件系统访问存储。I/O 节点通过 4Gbps光纤通道卡连接至磁盘阵列环境中,配置 1 台磁盘阵列(可选 HP P2000G3FF或 IBM DS3400) , 10TB可用容量,以满足高性能计算环境对存储性能和空间的巨大需求, I/O 节点存储链路完全多路径融合,与磁盘阵列见无单点。高性能计算平台全部通过管理节点上的高性能计算资源管理平台软件对用户发布使用。管理节点通过 1000Base-T 千兆以太网连接到校园网络中,各院系通过该网络 Web 使用高性能计算平台
15、资源,基于用户原有使用习惯的图形化交Xxxxx 第 8 页互界面,并最终通过网络可视化的查看计算过程,获得计算结果。3.2 主要设备选型计算节点采用 32 节点的刀片服务器作为计算节点 (每个节点采用 2 Processors Intel Xeon X5650/6 Cores/18GB memory ) , Intel 六核处理器在中规模的计算量上的性能相当于同主频四核 CPU的 1.5 倍以上。依据见 Intel 提供的数据分析图:管理节点采用 1 节点的机架式高端服务器(采用 2 Processors Intel Xeon X5650/6 Cores/24GB memory)作为高性能计算
16、平台的管理节点。存储节点采用 2 节点的机架式高端服务器(采用 2 Processors Intel Xeon X5650/6 Cores/36GB memory)作为高性能计算平台的存储 I/O 节点。计算网络采用至少 2 台 Infiniband 高速网络交换机( 20Gbps无阻塞)刀片机箱内置Xxxxx 第 9 页模块,作为高性能计算平台核心计算网络。详细指标见附表说明。3.3 Cluster 集群系统Cluster 采用 32 台刀片式服务器构成计算节点,通过 2 台 I/O 存储节点连接磁盘阵列, I/O 节点部署专用并行文件系统,负责向计算节点提供共享存储服务。管理节点部署高性能
17、计算资源管理平台软件,利用应用虚拟化技术, 实现用户通过网络对高性能平台的图形化透明使用, 远程接入完全遵照用户原有软件使用方式,使用习惯。高效、易用的提供高性能平台计算服务。目前用户大量应用运行在 Linux64 平台上,为了满足当前用户应用与未来发展的需求,采用 Linux并行计算集群进行 Cluster 的建设。Cluster 方案架构图小型机平台Cluster 计算节点采用刀片服务器,节点处理器采用英特尔 ? 至强 ? X5650 六核核处理器( 2 Processors/6 Cores ) 。Cluster 集群系统的计算理论浮点峰值为:2.66G 4 32 2 6=4085.76
18、G flops = 4 T flops 浮点峰值 CPU主频 CPU核每个时钟周期执行浮点运算的次数服务器数量每个服务器的 CPU核数。待建Xxxxx 第 10 页Cluster 计算集群具有以下特点和优势:具有很高的性能价格比。采用先进的 Beowulf 架构,扩展性好即可扩充到几百上千个节点,从而获得很高的性能和比较低的总体成本。计算集群全部采用高速的 Infiniband 网络互连,具有极高的性价比。采用工业标准设备和顺应高新技术发展的趋势。如集群并行计算技术,开放代码程序。支持 Windows平台的应用,具备 Linux 扩展能力。3.4 计算节点计算节点是高性能计算的核心节点,承担着
19、计算、分析、求解的真正任务,计算节点的性能很大程度上决定整个高性能平台所具有的计算能力, 根据调研的具体情况,充分考虑用户环境,采用刀片式服务器做计算节点,每节点配置 2 Processors/6 Cores 处理器,内存根据经验,每 core 配置 2GB内存,所以为计算节点合理配置 24GB内存(内存配置为 3 的倍数) 。特性:密集计算能力: 英特尔 ? 至强 ? 六核处理器配有多个 RDIMM 插槽、多个千兆 / 万兆服务器适配器,能够提供集中的计算功能和更加出色的系统扩展能力; 2 个英特尔至强 5600 系列处理器; 采用高级 ECC 的 96GB PC3-10600 (DDR3-
20、1333) 寄存式 RDIMM;可选择 1 个小外型高性能热插拔串行 SCSI (SAS) 硬盘。部署多样性:嵌入式技术和 2 个中间件插槽让您可以在高效紧凑的外形中进行多样性部署。可提供高速图形远程控制台功能,以及对服务器状态信息进行远程网络访问的能力;可通过管理程序安装功能、Disk-On-Key 和安全特性提高设备的灵活性3.5 管理节点管理节点用来承接外部用户接入集群系统,进行程序编译、调试、 并行计算任务的分发与布署, 此节点还安装有集群管理软件, 做为主节点对整个集群进行Xxxxx 第 11 页管理和作业调度等工作。目前采用一台机架式高端服务器( 2 Processors/6 Co
21、res/24GB 内存)作为高性能计算节点的管理节点,根据今后应用需求,可再扩展一台机架式高端服务器。3.6 I/O 存储节点I/O 节点用来连接后台的大容量数据存储设备,整个集群通过此节点来进行数据的大规模存取与调用。计算节点与 I/O 节点之间通过 InfiniBand 高速网络相连,保证充足的 I/O 数据带宽。目前暂时采用两台机架式高端服务器( 2 Processors/6 Cores/36GB 内存)作为高性能计算集群的 I/O 节点,今后根据应用需求, 可逐步扩展 I/O 节点。同时在 I/O 节点上部署并行文件系统, 并发利用I/O 节点对磁盘阵列进行读写操作。3.7 计算网络C
22、luster 高性能集群系统的计算节点全部通过高速的 Infiniband 互连技术实现互联,高速的 Infiniband 互连网络主要用于计算节点之间进行 MPI 通讯,交换节点应用进程信息和计算数据。整个高性能集群的管理网络和用户网络通过千兆以太网将每个节点连接起来。管理网络主要用于节点管理信息的传输。存储网络采用 SAN交换机和磁盘阵列, 主要用于各节点与 I/O 节点之间的数据传输,包括应用程序和数据的装载、计算结果的保存等等。Infiniband 网络Infiniband 核心计算网络互连采用多台 Infiniband 交换机 (带宽 20Gbps) ,互连网络拓扑图如下:Xxxxx
23、 第 12 页计算节点管理节点I/O 节点Infiniband LinkInfiniBand 对性能的影响InifiniBand 是一种用于高性能计算集群和企业级网格运算的高性能工业标准网络架构。 InfiniBand 以其 10-40Gbps 高速带宽和低延迟的优秀性能显现出卓越的性价比。 该技术能使由低端服务器组成的集群或网格, 相较于昂贵的高端服务器, 以同样甚至更高的速度完成复杂的计算任务, 也是实现该功能的第一种高速网络技术。3.8 管理网络管理网络千兆以太网交换机搭建。所有 Cluster 集群计算节点、 I/O 节点和管理节点都通过千兆以太网交换机连接起来,构成统一的 IP 网络
24、环境。3.9 监控网络通过基于硬件设备的集群管理软件对硬件系统进行集中管理、 配置, 减轻管理维护人员负担。为运维人员提供高效便捷的管理方式。3.10 存储系统高性能计算平台配置一台扩展能力至少支持 48 个磁盘驱动器的阵列, I/O节点可通过 4Gbps光纤通道卡连接至存储环境中。 计算节点服务器通过 I/O 节点访问磁盘阵列,全局部署并行文件系统。Xxxxx 第 13 页4 高性能计算平台软件系统高性能计算平台软件主要包括高性能计算资源管理平台软件、集群管理软件、并行文件系统、 64 位 Linux 操作系统、集群并行计算环境等一系列软件。通过优化配置,合理架构,最大化软件应用性能,为客户
25、提供一个简单,易用的高性能计算环境。平台逻辑架构如下:4.1 64 位 Linux 操作系统由于学校现有用户基本上熟悉 Linux 运行环境, 对于运行在计算节点服务器( X86_64 CPU架构) 上的操作系统, 目前选择 64 位 Linux 高级平台操作系统作为每个集群节点的操作系统。而且, Linux 操作系统的优势还体现在以下方面:开放的标准:开放意味着创新,意味着按需订制;低成本:软件成本 / 人员培训成本 / 移植成本 / 管理成本;Xxxxx 第 14 页高性能:表现在 Linux 系统资源的低占用率和在高性能运算的优势;操作系统的低占用率;Linux 在高性能运算方面的优势;
26、高可扩展性、可维护性。4.2 集群管理软件为了更好地管理和监控集群系统,方便系统维护,必须配置有效、实用和友好界面的集群管理软件。集群管理实用程序可以有效地管理大量的计算节点。带有图形用户界面( GUI) ,可以根据需要和集群中任意数量的节点进行定制。借助集群管理软件, 只需在单一显示屏上单击鼠标即可访问所有的计算节点控制台。通过集群管理软件,可以监控、暂停、启动、重启或关闭选定的任何节点。还可以连接到集群中的多个节点,并通过一次键盘输入以广播的方式向其发出命令。集群管理软件具有将一个系统配置向集群中的所有计算节点传播的功能。4.3 作业调度系统作业调度系统设计上体现如下几个原则:图形化的交互
27、界面,采用应用虚拟化技术将仿真求解软件的使用方式完全通过网络透明的提供给用户使用,保证系统使用的易用性。最终用户和 IT 基础结构的复杂性相分离的原则, 既简化了用户操作, 又提高了用户的工作效率。系统的可扩展性原则,集群系统计算能力的扩展和设备的增减,不会影响前端用户的工作。安全性原则,保证开放条件下的系统安全性。Xxxxx 第 15 页4.4 并行文件系统并行文件系统是一种主要用于 I/O 数据, 面向应用提供支持的用户级文件系统,它能够有效提高数据的 I/O 性能和科学计算程序的计算速度。4.5 集群并行计算环境MPICH 消息传递接口MPI(消息传递接口)是全球工业、政府和科研部门联合
28、推出的适合进程间进行标准消息传递的并行程序设计平台,也是目前应用最广的并行程序设计平台,几乎被所有并行计算环境(共享和分布式存储并行机、 MPP、集群等)和流行的多进程操作系统所支持,基于它开发的应用程序具有良好的可移植性。MPI 的一个最成熟和最广泛使用的版本就是 MPICH ,它是 MPI 的一种具体实现,可以免费从网上下载。 MPICH 的开发与 MPI 规范的制订是同步进行的。因此 MPICH 最能反映 MPI 的变化和发展。MPI 程序一般被称为 SPMD( Single Program Multiple Data) 程序, 即相同的程序对不同的数据进行处理。 当然用 MPI 也可以
29、编写出 MASTER/SLA VER 类的具有明显主从关系的程序。Xxxxx 第 16 页MPI 的语言绑定由于 MPI 是一个库而不是一门语言,因此对 MPI 的使用必须和特定的语言结合起来进行。 FORTRAN 是科学与工程计算的领域语言, 而 C 又是目前使用最广泛的系统和应用程序开发的语言之一,因此对 FORTRAN 和 C 的支持是必须的。 此外, C+作为面向对象的高级语言, 随着编译器效率和处理器速度的提高,它可以取得接近于 C 的代码效率。面向对象的编程思想已经被广为接受,因此在 MPI-2 中除了和原来的 FORTRAN 77 和 C 语言实现绑定之外进一步与Fortran9
30、0 和 C+结合起来,提供了四种不同的接口为编程者提供了更多选择的余地。4.6 标准库函数标准库函数包括支持 PORTRAN 77/90 和 C/C+语言的数学库、 并行库和相关编译器。4.7 标准应用软件目前提出需求的应用软件:Fluent 流体工程仿真计算软件(并行版)Materials Studio 化学、材料工业模拟软件ANSYS 通用有限元分析软件ADMS 环境评测模型软件Gauss 量子化学计算软件(注:商业软件的费用不包含在建设经费里面)Xxxxx 第 17 页5 项目经费预算5.1 经费来源由于本项目是学校整合资源, 统一建设, 共享使用的原则下立项建设, 因此,其经费来自不同
31、渠道,见下表:序号 项 目 名 称 预算经费1 2 3 合 计5.2 经费支出预算序号 设备名称 描述 数量 预算1 计算节点 (刀片式服务器) 刀片机箱、 刀片服务器、 IB 交换机和千兆以太网交换机等 32 台 155 万元2 管理节点、 存储I/O 节点 机架式服务器 3 台 15 万元3 磁盘阵列 配置 24 块 10Krpms, 6Gbps,600GB SAS 硬盘 1 台 20 万元4 软件及项目集成专业集群监控软件、 专业非开源作业调度软件、 64 位 Linux操作系统、 并行开发软件和函数库等,及项目集成安装、培训、售后 3 年服务1 套 20 万元合计 210 万元Xxxx
32、x 第 18 页附页高性能计算平台技术参数要求第一部分:计算节点刀片服务器 (32 片刀片 ) 设备 设备配置说明 数量刀片机箱刀片式服务器,标准机柜安装;最多支持 10 个服务器,支持不同型号刀片服务器(包括 intel/AMD 刀片)混插;支持刀片服务器或扩展刀片。 2 LCD/LED 显示屏的前端控制面板;支持初始配置向导、本地服务器刀片、机箱和模块的信息以及故障检测。配置最大冗余热插拔电源, 支持 N+1、 N+N 电源冗余模式, N 2,支持单相 /三相,电源模块满配。配置最大冗余热插拔风扇,风扇模块满配,提高刀片性能。支持 8 个互联模块托架,支持 LAN/SAN 连接,支持互联交
33、换机和直通模块。配置 4X QDR Infiniband 内置网络交换模块, 10 个下行链路,12 个上行链路,所有端口支持 40/20Gbs( QDR/DDR )带宽,配置相应的线缆( IB 4X QDR/DDR )和配件。配置 1Gb 或 10Gb 以太网交换机内置模块, 4 个 1Gb 上行链路,上行链路可堆叠,所有端口全线速。配置相应的堆叠线缆和配件。集成内置管理模块; 可远程监控图形界面; 可远程从本地光盘启动安装操作系统;集成虚拟电源、虚拟介质、虚拟 KVM 技术 。在网络上通过浏览器管理, 可以实现对物理机的统一管理。 自动发现、更新机箱和服务器;监控设备配置和变化; 监控硬件
34、、 软件运行情况。集群计算节点每个节点配置两颗 CPU Intel Xeon X5650 (主频 2.66 GHz, 12MB L3 Cache , 1333MHz 前端总线) 。32 每个刀片配置 DDR3-1333 内存 , 采用 RDIMM 内存或 FBDIMM , 12 个内存插槽;每个刀片服务器配置内存 24GB。每个刀片 4X QDR/DDR InfiniBand ConnectX IB 双通道适配卡。每个刀片配置 1 个 146GB 10K SFF 2.5 ” SAS 硬盘,能够实现在线热插拔硬盘功能。每个刀片配置嵌入式双端口 1Gb 或 10GbE 多功能服务器网络适配器。配置
35、快速分发软件,可同时分发安装 windows , Linux 等主流操作系统。Xxxxx 第 19 页第二部分:管理、存储 I/O 节点设备 设备配置说明 数量管理节点机架式服务器(带上机架导轨)。1 节点配置两颗 CPU Intel Xeon X5650 (主频 2.66 GHz, 12MB L3 Cache, 1333MHz 前端总线) 。配置 DDR3-1333 内存 , 采用 RDIMM 内存或 FBDIMM ,支持高级ECC ,服务器配置内存 24GB 。配置硬件 SAS RAID 控制器,高速缓存 512MB ,带电池保护 ;支持硬件 RAID 0/1 。配置 2 个 146GB
36、10K SFF 2.5“ SAS 硬盘,能够实现在线热插拔硬盘功能。集成双端口多功能千兆服务器网络适配器卡。配置冗余电源和风扇。三年原厂保修。I/O 节点机架式服务器(带上机架导轨)。2 节点配置两颗 CPU Intel Xeon X5650 (主频 2.66 GHz, 12MB L3 Cache, 1333MHz 前端总线) 。配置 DDR3-1333 内存 , 采用 RDIMM 内存或 FBDIMM ,服务器配置内存 36GB。配置硬件 SAS RAID 控制器,高速缓存 512MB ,带电池保护 ;支持硬件 RAID 0/1 。配置 2 个 300GB 10K SFF 2.5“ SAS
37、硬盘,能够实现在线热插拔硬盘功能。集成双端口多功能千兆服务器网络适配器卡。配置冗余电源,风扇。配置 1 块 Qlogic 4Gb HBA 卡。配置 Infiniband 4x QDR/DDR HCA 卡。三年原厂保修。Xxxxx 第 20 页第三部分: 存储系统设备 设备配置说明 数量磁盘阵列厂家自主研发,拥有完整知识产权,非 OEM产品。1 配置双冗余控制器,缓存每控制器 1GB ( 双控 2GB) 。主机接口每控制器 2 个主机端口 , 光通道 (FC) 4Gbps 自感应 1 Gbps/2 Gbps。RAID 级别 RAID-0, -1, -3, -5, -10 。支持的最大驱动器数 4
38、8 个硬盘驱动器,支持 6Gb/s SAS、 SATA磁盘。配置最大冗余风扇和电源 , 热插拔。机架支持业界标准的 19 英寸机架。配置容量许可的图形化磁盘阵列存储管理软件; 磁盘阵列管理软件为满配容量或不限制容量许可证, 未来磁盘扩容, 不需要磁盘阵列管理软件升级费用。SAN 支持的不同类型 FC 交换机。配置主流操作系统 AIX , HP_UX , Solaris, Windows , Linux 等相应平台支持软件。配置 24 块 SAS 硬盘,转速 10Krpms,容量 600GB ,带宽6Gbps,配置相应的磁盘扩展柜。支持主流的操作系统: HP-UX、 IBM AIX、 SUN S
39、olaris 、 MS windows、Linux 等。支持快照克隆,增强数据保护。配置多路径故障切换和负载均衡功能,提供至少 2 个支持Linux64 的许可。可实现 128 个 LUN,无需 LUN扩展许可;最大 LUN容量 1TB。支持的主机最大数量 16,且无需额的主机扩展许可。三年原厂保修。Xxxxx 第 21 页第四部分:集群系统软件软件 软件配置说明 数量操作系统 支持集群的 Linux 64 位版本。 1 并行环境MPICH (支持以太网 MPI 环境) 。1 Mvapich2 。OpenMPI(Infiniband 和以太网的 MPI 环境 )。Mvapich( 支持 Inf
40、iniband 的 MPI 环境 )。应用开发环境GNU C/C+ 编译器。1 GNU Fortran77 编译器。Intel C/C+ 编译器 (支持 OpenMP) 。Intel Fortran 77/90 编译器 (支持 OpenMP) 。PGI C/C+ 编译器 (支持 OpenMP) 。PGI Fortran 77/90 编译器 (支持 OpenMP)。BLAS 、 GOTO 、 Atlas、 LAPACK 数学库。ACML GPU/CPU 高性能数学库。并行文件系统 Lustre、 GPFS 等。 1 集群监控软件作业调度软件君富 EasyCluster、 GridView 、 P
41、latform Rocks 等,非开源的专业软件, 集成安装与硬件设备无关, 计算节点的扩展不受硬件品牌限制,并提供相关承诺证明。1 套本次支持节点数至少 35 个。采用 Web界面, 管理员界面无法提交任务, 支持 SSH提交管理任务系统负载在主登陆界面可以显示, 可区别负载高低, 让每个用户及时了解负载情况。浏览器与服务器之间的数据采用压缩加密方式传输, 保证网络传输效率及安全要求。支持 Linux 异构高性能 Cluster ,支持不同品牌的 64bit 的混合集群管理。支持节点划分的任务队列, 满足多框刀片以及异构集群的任务调度需要,避免任务跨刀片框分配节点,保证同构机器作计算, 提高
42、效率。不同时期的机器可以分别组建任务队列,充分体现了 Cluster灵活扩展的特点,为集群的统一管理及以后可能扩展做准备。支持特权队列, 运行在该队列中的任务, 会挂起其下属队列中的运行任务。队列优先权控制, 优先权高的队列任务将占用更多的 CPU资源。 以便更灵活地支持 Cluster 的复杂调度环境。支持断电保护和 UPS温度报警, 更好应对异常或紧急事件; 浏览器界面支持远程关闭 / 启动节点。当 Cluster 负载小的时候,可以关闭一些节点节电,发现负载满了,开启关机的节点。针对节点设定限制命令行运行程序,确保用户通过界面提交任务,避免任务提交混乱, 多个任务跑在同一个核上的情况发生
43、。 为管理员限制用户的异常行为,提供了有力支持。支持集群用户统一管理 , 支持多用户组的划分并支持用户组之间的人员交叉。Xxxxx 第 22 页针对集群上所应用的 Ansys、 Fluent 、高斯等商业软件的接口与集群管理软件的衔接进行开发,便于管理及实现高级的任务调度策略。第五部分:系统安装及服务服务内容 服务项目说明系统安装由项目集成商负责完成项目集成、 系统安装及售后服务。 项目集成商必须提供相关此项目集成的承诺函、 公司资质证明以及公司售后服务的承诺函;按要求完成安装调试,并提供 Linpack 性能测试值( Linpack1000 或 HPL 测试) ;项目集成商应保证系统安装调试
44、后的 Linpack 测试值不小于系统峰值的 80%。系统培训对用户进行全面的技术培训, 随时提供免费的远程技术支持, 能够及时响应用户的现场技术支持的请求。 提供免费的专门高性能计算系统技术培训 2 人次 (专业培训机构提供) , 培训费、食宿费全免。系统服务具有完整的设备故障响应机制, 设备故障发生后, 响应时间为 1 小时内,并在 3 小时内提出解决方案,一般故障 12 小时之内解决,复杂故障最多 48 小时之内解决;系统服务应包括用户所需要的标准商业软件(如 Ansys、 Fluent 等)现场安装、调试、故障处理,以及其它相关技术支持服务,并提供服务承诺函。售后服务级别 要求的设备保修期为设备安装调测验收合格后开始,制造商 3 年7*24 服务的服务级别。设备验收投标方对于所投设备的技术服务,包括安装、调试、检验、保修和技术支持等, 均应由设备制造商及设备制造商在国内的分支机构直接提供,此要求至终验后 3 年内均有效。售后服务人员要求要求原厂商售后服务, 并提供原设备生产厂家加盖公章的 3 年 7*24小时用户现场 ( 包括备件 ) 的正式服务承诺函。