have mumpss支持csr格式矩阵吗

【图文】COMSOL 求解器配置_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
COMSOL 求解器配置
上传于||文档简介
&&C​O​M​S​O​L​ ​求​解​器​配​置
大小:6.35MB
登录百度文库,专享文档复制特权,财富值每天免费拿!
你可能喜欢君,已阅读到文档的结尾了呢~~
并行软件库介绍并行软件库介
扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
并行软件库介绍
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='/DocinViewer-4.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口【图文】求解器_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
上传于||文档简介
&&介​绍​油​藏​工​程​中​求​解​大​规​模​线​性​方​程​组​用​到​的​矩​阵​结​构​,​迭​代​方​法​,​以​及​预​条​件​子
大小:2.46MB
登录百度文库,专享文档复制特权,财富值每天免费拿!
你可能喜欢君,已阅读到文档的结尾了呢~~
中科院超级计算中心,上海超级计算中心,中科院计算所,国家超级计算天津中心,超级计算中心,中科院云计算中心,天津超级计算中心,济南超级计算中心,国家超级计算中心,中科院沈阳计算所
扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
中科院超级计算中心
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='/DocinViewer-4.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口在本人自己编写的非线性固体有限元程序里,(理所当然)最耗时的部分是线性矩阵求解。我所使用的线性矩阵求解器是开源的串行直接求解器。想请教有经验的人士推荐一款易用的、开源的、并行求解器,这样就可以大大提升程序运行的速度了。我所知道的只有MUMPS,不知道各位有没有用过,感觉如何?补充说明:1.
程序目前是纯粹串行的,我正在着手并行化;2.
我将会使用的环境既包括超算,也包括个人电脑。作为一个独立的固体求解器,我目前研究的大部分算例都可以在个人电脑上完成。将来会与一个已经开发好的流体求解器耦合起来计算一些复杂、有真实应用背景的程序,届时是要使用超算的。超算是IBM BLUE GENE,功能很强大,但我目前经验太少无法估计以后会用到的核数,应该不至于要好几千;3.
我选择使用直接求解器而不是GMRES是因为比较了两者,发现直接求解器快很多。而且我看到Abaqus也是使用multifrontal direct solver所以选择了直接求解器,这方面的数学理论真的是一窍不通;4. 矩阵是对称矩阵。
强答一发,抛砖引玉;并行计算方面真心小白,求大牛指教一般比较流行Linear Algebra计算包是 和;前者来自Sandia国家实验室后者大概是Argonne国家实验室;两者都是美国能源部的项目;当然能源部为了同一个目的投了两个项目的原因不得而知;但我觉得就我们这些做计算力学的人来说并没有本质区别,只是从自己所用的编程语言或者架构乃至计算环境上来考虑用哪个包;一旦决定之后就只能一条道走到黑;我自己主要用的PETSc。两者都提供了一大堆线性代数求解器,包如其名,Portable Extensible Toolkit for Science Computing (PETSc)的求解器和其他模块不如Trillions那么多;我用的Direct Solver基本都是利用PETSc再调用的别的包; 这里列出了所有PETSc提供或者调用的linear solver,列表中可以发现PETSc调用了很多external package,包括题主提到的Mumps,连Matlab都不放过也要调用一下;Trillions相反不仅有linear solver,连Mesh的模块都有编程语言上PETSc声称提供了C,C++,Fortran乃至Python;Trillions似乎用了C++目前的超算架构下,一般在计算节点内可以使用OpenMP以利用共享内存和GPU加速,Trillion和PETSc基本都声称支持;希望问题能砸出Hybrid并行计算的大牛交流一下并行计算时候的主要问题是充分利用计算环境并且考虑自己的矩阵特性来调整Linear SolverMUMPS这类direct solver总会遇到内存问题,主要是因为稀疏矩阵求逆的结果可能是个密集矩阵,总而言之direct solver对于内存是有要求的,总会碰到限制,方程数目太多就必须选用Iterative Solver(Krylov)来求解,比如说GMRES,但是对于这类solver,必须要选用合适的pre-conditioner,这又是一个很大的课题;此外有些solver只能处理对称矩阵,当然非线性问题的时候即使矩阵不对称用这类求解器也不一定会导致不收敛,但也最好避免这类问题;计算环境是指不同超算的架构和环境有所不同;比如计算节点内存有的特别肥硕,这时候就能更充分利用Direct Solver;再比如有些时候维护人员对于PETSc或者Trillion的支持力度不一样(一般不至于)题主的目的是一个通用固体有限元求解器;我觉得题主要估计会采用怎么样的计算环境:基于MPI的超算或者就仅仅在个人电脑用OpenMP;其次估计一下矩阵的特性,当然固体力学的话一般是对称矩阵;再考虑一下求解问题的规模,多CPU(&3000?这个数是我一个同事用MUMPS计算挂掉的情况,但和特定的离散形式和偏微分方程有关,真不一定)的情况下可能只能用Iterative solver。我觉得题主可以把这些选项开放给用户,让用户自己调整。题外话,题主在并行计算前划分计算域给每个CPU用的是啥计算包?
已有帐号?
无法登录?
社交帐号登录
计算流体力学/结构工程/桥梁工程

我要回帖

更多关于 mumps 的文章

 

随机推荐