什么是高性能计算集群 报价

武汉大学高性能计算系统
武汉大学高性能计算系统
武汉大学高性能计算平台视频简介
&&武汉大学高性能计算系统是为全校师生提供高性能计算服务的开放共享系统。
&&高性能计算系统由曙光集群、HP集群、HP SMP大型机、GPU集群、存储系统组成。
&&曙光集群的峰值计算能力为19.64TFlops,包括93个计算节点、6个I/O节点、2个管理节点,每个节点2个CPU,每个CPU 12核,主频2.2GHz,节点内存128GB。节点由40Gbps的IB交换机互联。集群节点安装64位SuSe11 Linux系统。
&&SMP大型机的峰值计算能力为0.252Tflops,包括42个1.5GHz 64位安腾2 CPU、196GB内存,HP-UX操作系统。
&&GPU集群的峰值计算能力为单精度6.18TFlops,包括主机及6块Tesla C2050 GPU卡,主机为Intel
Xeon 4核CPU,主频为2.4GHz,内存为32GB,硬盘为300GB。 主机安装SuSe11
&&存储系统的可用容量约为30TB,由集群、大型机和GPU集群共享。
&&系统安装有C/C++、FORTRAN、JAVA编译系统、MPI和MPICH库。SMP大型机上另外安装OpenMP库。GPU集群安装有CUDA C编译系统。
&&用户通过LSF portal完成各项工作,具体使用方法请阅读用户手册。请各位用户在成功申请账号后发送邮件至获取本集群用户手册。&
提交、运行程序
&&通过Web方式向作业调度系统LSF提交、运行程序。&
&&WinSCP和SecureCRT是方便进行文件传输和编译源程序的辅助工具。&&
开设账户及高性能平台使用须知
&&用户申请账户时,尽量以课题组负责老师的名义申请,便于账号的管理和延续使用。请从本站点下载用户申请表、上机承诺书以及保密协议,将电子版填写完毕后发送至邮箱,将纸质版签字、盖章后交至计算机学院B203办公室。
&&若用户需自行安装应用程序或者因项目需要申请较多资源时,请电话或者邮件联系申请。
&&若需开户或咨询,请联系黄老师,联系邮箱: ,联系电话: 。
&&用户通过VPN登录连接成功后,使用WEB浏览器访问LSF portal或者使用SecureCRT工具ssh 10.10.10.100登录至node100查看或运行任务,请不要在node100,node101号节点上执行作业。
&&GPU应用需在node100上登录至node102号节点才能使用。具体使用方法请阅读用户手册。
开设账户后,请各位用户定期备份数据,以免出现数据丢失的情况。从数据安全角度考虑,需将用户目录以及用户对应的程序数据目录设置为只能自己访问,按下列步骤执行:
进入到需设置权限的文件或文件夹的父目录,其中用户目录对应路径为/dawnfs/users,用户程序对应路径为/dawnfs/apps/data/spooler/用户名。
执行命令 chmod 700 文件或文件夹名
例如,guest用户创建作业abc后,该作业对应路径为/dawnfs/apps/data/spooler/guest/abc,若将abc文件夹设为只能自己访问,步骤为:
切换到/dawnfs/apps/data/spooler/guest路径下
执行chmod 700 abc命令
通过ls -l命令查看guest目录下所有文件及文件夹的读写权限,若abc的读写权限为drwx------,则设置成功当前位置:
&求助预算写法(高性能计算集群机时费算在哪个子类里?)
求助预算写法(高性能计算集群机时费算在哪个子类里?)
作者 simonleegml
求助预算写法(高性能计算集群机时费算在哪个子类里?)
我的项目测试过程中需要使用高性能计算中心的软硬件环境,需要付机时费(每核小时XX元)。
请问一下大家,这个应该算在哪个分类里?
是算在 “设备费-设备改造与租赁费”&&还是&&“测试化验加工费”???
注高性能计算中心是学校下属的一个独立结算单位。
请大家帮忙忙
怎么没有人知道么?还是大家都没有涉及到这个情况?
原来我们申请的时候是写在测试化验费里,但是现在看应该是租赁费吧
使用别人的计算机还要给钱,肯定是租赁费啊,或者你买一台算在设备费里。
我也有这个问题,想知道!
我也是这个问题,写到设备费里面吧,大家都说这个最好少写点以免悲剧,写到测试/化验/加工吧又觉得不对,因为说明里面又有租赁高性能计算机这个文字,苦恼,
数学实验费?
24小时热帖
下载小木虫APP
与700万科研达人随时交流西安交大高性能计算集群
&&&& 西安交通大学是国家教育部直属重点大学,为我国最早兴办的高等学府之一。其前身是1896年创建于上海的南洋公学,1921年改称交通大学,1956年国务院决定交通大学内迁西安,1959年定名为西安交通大学,并被列为全国重点大学。西安交通大学是“七五 ”、“八五”首批重点建设项目学校,是首批进入国家“211”和 “985”工程建设,被国家确定为以建设世界知名高水平大学为目标的学校。
一.客户需求分析
2006年12月,PCC(Preconcal)为西安交通大学定制基于Fluent计算的高性能工作站,该系统由塔式工作站、交换机、以太网络等组成。主要运行Fluent等软件。经过4年的应用,Fluent在该系统上运行稳定、状态良好,参与了不少课题和项目。但随着业务需求飞速的发展,该系统已不能满足需要,更效率、更大规模计算成为当前迫切的要求。针对客户需求分析,我们设计出基于Fluent的高性能(High-Performance Computing)计算集群,以更好满足当前的计算需求。
二.方案分析
本方案中,我们使用的是高性能计算(High-Performance Computing)集群。简单的说,集群(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源。这些单个的计算机系统就是集群的节点(node)。高性能集群在计算过程中,各节点是协同工作的,它们分别处理大问题的一部分,并在处理中根据需要进行数据交换,各节点的处理结果都是最终结果的一部分。
一. 方案总览
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
由于CFD是一种典型的浮点计算密集型和内存密集型应用,其对高性能计算机的要求主要有:
1) 具有很强的计算能力,尤其是浮点运算能力;
2) 有较大容量的内存以使前处理和求解时数据能完全驻留在物理内存中,经验表明,一般每个CPU至少分配2-4GB内存,而且多多益善;
3)要求具有支持高速、低延迟的通讯网络。一般而言,100个节点以内集群采用千兆以太交换网络,100个节点以上的CFD集群要求采用性能更好的Infiband互连网络,以满足节点之间大量频繁的通讯要求。
& &PCC作为专业的高性能计算系统供应商,愿为流体力学计算应用提供多快好省的高性能计算解决方案,推动流体动力学数值模拟研究的发展,
& &目前PCC的高性能计算解决方案,均可采用集群架构构造更大规模系统,配置方案可灵活选择,始终追求效益/成本最大化的高效能解决方案。
&1.1 拓扑图
Preconcal高性能计算集群由若干台高性能节点机、高速计算网络连接到一起组成,并通过监控系统和一组集群管理软件对其进行有序管理。集群的基本体系结构如图所示,主要包括节点、网络、存储、监管和软件等几个部分。根据用户对计算规模需求的不同,可以对节点、网络和存储等进行量身定制。
1.2 节点机
& & & &节点机主要包括两类节点:计算节点、管理节点。
计算节点要求:
& &(1)CPU:有很强的计算能力,对CFD而言特别是浮点运算能力。
& &(2)内存:适量的内存以使前处理和求解时数据能完全驻留在物理内存中。经验表明,每个CPU分配内存越大,计算能力越强。
& &(3)支持高速、低延迟的通讯网络
& &针对以上要求,我们推荐计算节点采用两路12物理核心(超线程24核心)Intel至强56处理器的系统,这种系统都具有极高的性能,非常适合用于构建高性能集群系统。最新系列的处理器都更注重大内存容量支持和高带宽内存访问。同时在能耗控制方面也做了相当多的优化,可最大限度的降低TCO。
管理节点是外部设备和集群系统之间连接的桥梁,任何用户和系统的管理员都只能通过管理节点才可能登陆到节点机子系统上,事实上,管理节点是一个多种身份于一身的节点,它具有管理和作业提交等功能。
网络系统特别是计算网络的性能很大程度上影响着整个系统的性能。由于并行计算时的数据通讯和NFS文件系统的数据传 递对网络的要求较高,为了管理、监控等操作不对计算通讯和文件IO操作产生任何干扰,本方案设计的网络系统,实现专网专用,保证了系统的高效性。对于较大规模的集群系统,还可单独设置数据传输网络,将计算过程中的数据传输与个节点之间的通讯分离开,避免相互干扰。这对于非稳态、有大量中间 数据需要保存的CFD应用而言尤其重要。数据传输网络一般采用千兆以太网,根据需要还可以在IO节点上进行双网卡绑定以提高数据传输带宽。
集群服务器系统为原装正品,提供厂家授权书和售后服务承诺函
硬件售后服务及培训要求:
一周人员培训、三年上门服务、三年专业支持
下一工作日上门服务(含配件及人工费,维修范围包含显示器、鼠标、键盘等全部原装配件,7x24小时电话响应技术支持)IBM Platform HPC 高性能计算集群 - 中国
如何快速解决基础架构需求中的问题?
IBM Spectrum Computing 云服务
如何快速解决基础架构需求中的问题?
IBM Spectrum Computing 云服务
IBM Platform Computing 正式更名为 IBM Spectrum Computing
在共享服务基础架构上
集成 Hadoop、Spark 和云中应用程序
IBM Platform HPC
高性能计算
IBM Platform HPC 在单一产品中提供一套完整的技术和高性能计算(HPC)集群管理功能。这一套丰富的开箱即用功能可减少部署、管理和使用计算环境的复杂性,并在降低成本的同时缩短了获取成果的时间,因此 IT 管理者和用户均受益匪浅。
运行大型数据,管理复杂的模型,处理错综复杂的运算问题。
采用 HPC 进行建模对制造业产品设计至关重要。
IBM Platform LSF 工具可以让用户看见高性能计算中心内部的运行情况,并能通过一套紧密集成的功能,提高用户生产力和运营效率
高性能计算(HPC)帮助红牛车队构建&最佳动态资源管理软件网格&
一张图帮您了解
美国一家半导体公司利用 HPC(高性能计算)技术,以更低成本,更快速度把新技术推向市场
IBMEDA 加速产品上市并减少几百万美元的芯片设计成本
高性能计算集群解决方案
完整的 HPC 集群管理
IBM& Platform& HPC(高性能计算)允许各行业(例如,制造业、石油和天然气、生命科学及高等教育)中的技术计算用户通过易于使用的基于 Web 的界面来部署、管理和使用其 HPC(高性能计算) 集群。这最大限度地缩短了为最终用户设置和管理集群所需的时间,并允许这些用户专注于运行应用程序而非管理基础架构。IBM Platform HPC(高性能计算) 可提供全面的集群管理功能 - 从集群供应、监控和管理到工作负载规划和报告。操作和使用高性能计算集群管理所需的所有功能同时安装并紧密集成。该产品旨在加快系统准备速度、提升易用性和改善应用程序吞吐量。
IBM Platform HPC(高性能计算) 已通过 Intel&Cluster Ready 认证,并能够轻松部署 Intel Cluster Ready 认证的集群。技术计算用户能够利用用户界面启动 Intel Cluster Checker,确保集群组件在整个集群生命周期中继续协同工作,以增加正常运行时间、提高生产效率并减少总体拥有成本(TCO)。
优点
简化集群部署、使用和管理
IBM Platform HPC(高性能计算) 可提供强劲的集群和工作负载管理功能。它可简化应用程序集成过程,以便最终用户可专注于运行应用程序而非管理集群。通过 IBM Platform HPC,用户可利用:
完整的高性能计算集群解决方案,以便加快集群就绪,并缩短获取成果的时间
简单的集群部署和供应过程
易于使用的基于 Web 的界面,可简化集群管理、应用程序集成和工作负载提交
完善的工作负载调度程序,可通过高级调度策略来改善应用程序
产品售前咨询请致电:
800-810-1818 转 5134
或 400-810-1818 转 5134
优先级代码: IBM Spectrum Computing
产品售前咨询请致电:
优先级代码: IBM Spectrum Computing
(*需提供 IBM 授权代码)
Lenovo 收购了 IBM x86 系统
Lenovo 目前也在中国和其他国家或地区提供这一针对 x86 系统的 IBM 软件。
成功案例
Swift Engineering 希望获得一种解决方案,以便能将更多的时间用于解决复杂的问题,而不是管理系统。Cray 的 CX 1000 与 Platform HPC 的结合,使 Swift 能够以进一步增强的图形来实时解决更大的问题。
VTTI 是美国主要的运输研究中心,通过开展模拟现实的驾驶研究,旨在拯救生命和改善路况。利用 IBM Platform HPC,原先需要数周才能完成的查询现在仅需几分钟即可。
University of East Anglia wished to create a &green& HPC resource, increase compute power and support research across multiple operating systems. Platform HPC increased compute power from 9 to 21.5 teraflops, cut power consumption rates and costs and provided flexible, responsive support.
在 Platform HPC 软件中,Hartree Centre 可以使用来自 ScaleMP 的 vSMP 软件,将所选节点中的处理资源和内存动态地汇聚至单一的虚拟资源池中。
了解更多信息
白皮书
网络直播
其他
培训、服务和支持
IBM 软件定义的基础架构
加速实现成果,通过可扩展的高效环境降低成本
独立软件供应商
深厚的行业专业知识、思想领导力和先进的技术带来巨大竞争优势
用于大数据和计算密集型应用的强大解决方案
IBM Systems
作为计算、网络和存储基础架构的基础
IBM Power Systems
将海量的原始数据转化为具有执行力的业务洞察转自:http://blog.csdn.net/nick_php/article/details/
高可用集群( High Availability Cluster)
负载均衡集群(Load Balance Cluster)
科学计算集群(High Performance Computing Cluster)
1、高可用集群(High
Availability Cluster)
常见的就是2个节点做成的HA集群,有很多通俗的不科学的名称,比如”双机热备”, “双机互备”, “双机”。
高可用集群解决的是保障用户的应用程序持续对外提供服务的能力。 (请注意高可用集群既不是用来保护业务数据的,保护的是用户的业务程序对外不间断提供服务,把因软件/硬件/人为造成的故障对业务的影响降低到最小程度)。
2、负载均衡集群(Load Balance Cluster)
负载均衡系统:集群中所有的节点都处于活动状态,它们分摊系统的工作负载。一般Web服务器集群、数据库集群和应用服务器集群都属于这种类型。
负载均衡集群一般用于相应网络请求的网页服务器,数据库服务器。这种集群可以在接到请求时,检查接受请求较少,不繁忙的服务器,并把请求转到这些服务器上。从检查其他服务器状态这一点上看,负载均衡和容错集群很接近,不同之处是数量上更多。
3、科学计算集群(High Performance Computing Cluster)
高性能计算(High Perfermance Computing)集群,简称HPC集群。这类集群致力于提供单个计算机所不能提供的强大的计算能力。
高性能计算分类: 
3.1、高吞吐计算(High-throughput Computing)
有一类高性能计算,可以把它分成若干可以并行的子任务,而且各个子任务彼此间没有什么关联。象在家搜寻外星人( SETI@HOME – Search for Extraterrestrial Intelligence at Home )就是这一类型应用。
这一项目是利用Internet上的闲置的计算资源来搜寻外星人。SETI项目的服务器将一组数据和数据模式发给Internet上参加SETI的计算节点,计算节点在给定的数据上用给定的模式进行搜索,然后将搜索的结果发给服务器。服务器负责将从各个计算节点返回的数据汇集成完整的
数据。因为这种类型应用的一个共同特征是在海量数据上搜索某些模式,所以把这类计算称为高吞吐计算。
所谓的Internet计算都属于这一类。按照 Flynn的分类,高吞吐计算属于SIMD(Single Instruction/Multiple Data)的范畴。
3.2、分布计算(Distributed Computing)
另一类计算刚好和高吞吐计算相反,它们虽然可以给分成若干并行的子任务,但是子任务间联系很紧密,需要大量的数据交换。按照Flynn的分类,分布式的高性能计算属于MIMD(Multiple Instruction/Multiple Data)的范畴。
下面说说这几种集群的应用场景:
高可用集群这里不多作说明。
想Dubbo是比较偏向于负载均衡集群,用过的猿友应该知道(不知道的可以自行了解一下),Dubbo同一个服务是可以有多个提供者的,当一个消费者过来,它要消费那个提供者,这里是有负载均衡机制在里面的。
搜索引擎Elasticsearch比较偏向于科学计算集群的分布计算。
而到这里,可能不少猿友都知道,集群的一些术语:集群容错、负载均衡。
我们以Dubbo为例:
集群容错(http://dubbo.io/User+Guide-zh.htm#UserGuide-zh-%E9%9B%86%E7%BE%A4%E5%AE%B9%E9%94%99)
Dubbo提供了这些容错策略:
集群容错模式:
可以自行扩展集群容错策略,参见:集群扩展
Failover Cluster
失败自动切换,当出现失败,重试其它服务器。(缺省)
通常用于读操作,但重试会带来更长延迟。
可通过retries="2"来设置重试次数(不含第一次)。
Failfast Cluster
快速失败,只发起一次调用,失败立即报错。
通常用于非幂等性的写操作,比如新增记录。
Failsafe Cluster
失败安全,出现异常时,直接忽略。
通常用于写入审计日志等操作。
Failback Cluster
失败自动恢复,后台记录失败请求,定时重发。
通常用于消息通知操作。
Forking Cluster
并行调用多个服务器,只要一个成功即返回。
通常用于实时性要求较高的读操作,但需要浪费更多服务资源。
可通过forks="2"来设置最大并行数。
Broadcast Cluster
广播调用所有提供者,逐个调用,任意一台报错则报错。(2.1.0开始支持)
通常用于通知所有提供者更新缓存或日志等本地资源信息。
负载均衡(http://dubbo.io/User+Guide-zh.htm#UserGuide-zh-%E8%B4%9F%E8%BD%BD%E5%9D%87%E8%A1%A1)
Dubbo提供了这些负载均衡策略:
Random LoadBalance
随机,按权重设置随机概率。
在一个截面上碰撞的概率高,但调用量越大分布越均匀,而且按概率使用权重后也比较均匀,有利于动态调整提供者权重。
RoundRobin LoadBalance
轮循,按公约后的权重设置轮循比率。
存在慢的提供者累积请求问题,比如:第二台机器很慢,但没挂,当请求调到第二台时就卡在那,久而久之,所有请求都卡在调到第二台上。
LeastActive LoadBalance
最少活跃调用数,相同活跃数的随机,活跃数指调用前后计数差。
使慢的提供者收到更少请求,因为越慢的提供者的调用前后计数差会越大。
ConsistentHash LoadBalance
一致性Hash,相同参数的请求总是发到同一提供者。
当某一台提供者挂时,原本发往该提供者的请求,基于虚拟节点,平摊到其它提供者,不会引起剧烈变动。
算法参见:http://en.wikipedia.org/wiki/Consistent_hashing。
缺省只对第一个参数Hash,如果要修改,请配置&dubbo:parameter key="hash.arguments" value="0,1" /&
缺省用160份虚拟节点,如果要修改,请配置&dubbo:parameter key="hash.nodes" value="320" /&
还有比较好奇它们是怎么通信的?
像早期版本的Elasticsearch的话,自动发现节点机制,ES是一个基于p2p的系统,它先通过广播寻找存在的节点,再通过多播协议来进行节点之间的通信,同时也支持点对点的交互。
而Dubbo是有个注册中心,它支持多个注册中心,但是推荐使用ZooKeeper。关于ZooKeeper可以自行了解,很多集群相关的框架都有使用到它。当然像Elasticsearch是自己有相应的机制实现的。
阅读(...) 评论()

我要回帖

更多关于 高性能计算集群 报价 的文章

 

随机推荐