软件说明
1. MPCCI简介
MpCCI (Mesh-based parallel Code Coupling Interface)由德国公司Fraunhofer开发,其目的是为了提供一个独立于应用的接口来耦合不同的仿真代码。利用MpCCI软件可以实现两个或多个仿真代码在耦合区域的网格之间的数据交换,通常情况下,不同仿真代码的网格是互不兼容的,MpCCI可以通过自身的耦合及插值算法达到在不同网格之间进行数据交换的目的,即实现了多场耦合的仿真计算。
MpCCI的代码适配器能够对不同仿真代码进行解析,并且MpCCI耦合服务器将所涉及到的所有一一对应物理参量(包括全局参量、能量源、动量源、材料属性、边界条件、网格数据以及化学成分等等)进行标准化,使之成为MpCCI中统一的物理参量,以便在耦合定义过程中进行选取。数据交换的复杂细节被隐藏在简洁的MpCCI界面接口之后。
大多数商业CFD/FEM软件允许用户通过应用程序接口增加额外的特征、物理模型、边界条件,因而在用户定义子程序内部存取内部数据结构是可能的,甚至于通过子程序参数、全局变量或者通过内部模型来读取和保存数据。MpCCI正是使用这种能力完成和其它商用软件的连接。
2. MpCCI软件的技术优势
MpCCI的技术优势体现在以下八个方面:
(1). 降低采购成本。
用户可以利用现有的CFD软件和结构分析软件,因而可以降低软件购置成本。如用户如果已经有FLUENT软件和NASTRAN软件,那么就仅仅需要采购MpCCI软件就可以了。
(2). 容易使用
采用MpCCI完成流固耦合分析,利用用户熟悉的仿真软件如FLUENT、MD-NASTRAN或ABAQUS进行前后处理,不需要用户学习其它的软件,而MpCCI的使用是非常容易的,大约一天就可以学会。
(3). 基于MpCCI的流固耦合方案可以模拟任意速度范围的流固耦合问题
各种工业应用中的流固耦合问题面对的耦合情况非常复杂,既有可能是像液压系统、燃油系统、充液管道系统这样的不可压缩流作用下的流固耦合,也可能涉及到像飞行器这样的可压缩流场作用下的气动弹性耦合问题。在实际情况下,仅仅采用单一的CFD求解器很难实现从不可压缩到可压缩流的各种流场的高效求解。比如对于强压缩流动问题可以选择FLUENT中基于密度的求解器,对于像飞行器水下发射系统的问题可以选择基于压力的求解器。基于MpCCI流固耦合方案可以根据用户计算模型的特点选择合适的求解器进行高效率的模拟。因此,基于MpCCI流固耦合解决方案通过选择合适的求解器可以解决从不可压缩流到高超音速的流固耦合问题。
(4). 基于MpCCI的流固耦合方案可以求解涉及复杂流动机理的流固耦合问题
在进行工业级的数值模拟仿真时往往会遇到流动机理极其复杂的耦合问题。比如飞行器在高马赫数条件下,由于相对温差较大,需要考虑辐射等传热因素。上述问题都是需要考虑复杂流动机理的问题。基于MpCCI的流固耦合方案可以选择合适的CFD软件,如FLUENT包含丰富的物理模型,MpCCI与FLUENT软件结合可以模拟辐射、VOF模型、自由表面等问题。因此,基于MpCCI的流固耦合方案可以模拟包含非常复杂的流动机理的流固耦合问题。
(5). 基于MpCCI的流固耦合方案可以模拟大位移和大变形的流固耦合问题
流固耦合分析的目的就是研究流体和固体间的相互作用对固体结构和流场的影响,在大变形情况下流固耦合的相互作用更加突出。在实际工程分析过程中多数都需要考虑具有大位移、大变形特征的流固耦合问题。支持大变形和动态网格是能够实现流固耦合的基础。基于MpCCI流固耦合方案可以选择像FLUENT这样包含非常完善和先进的动网格技术的CFD软件,基于FLUENT所提供的弹簧光顺、动态层铺、局部网格重构三种动网格技术,可以求解像具有不同的运动规律的多个区域运动等复杂的动网格问题。因此基于MpCCI流固耦合方案可以顺利模拟涉及大变形和大位移的流固耦合问题。
(6). 基于MpCCI的流固耦合方案能够实现时间异步的流固耦合分析
流固耦合分析的计算量是非常巨大的,其时间复杂度是单独求解固体时间复杂度与单独求解流体时间复杂度的乘积。海量的计算量是实现工业级流固耦合分析的巨大障碍,这是由流固耦合分析所需要处理的复杂问题决定的。首先,对同一个流固耦合问题,流体和固体的模拟响应时间往往是有差别的。比如在分析稳态的流固耦合热传导问题时,热量的传输过程比在固体中的扩散过程快很多,因此流体区域的计算时间需要取更小的时间步长。另外,至于求解精度和数值稳定性的考虑,CFD软件和FEM软件对其分析的时间步长也往往是有不同的限制的。比如固体区域中采用显式算法求解器运算时,有限元分析的时间步长需要小于固体中的波速通过最小单元的时间。如果流体区域和固体区域都采用相同的时间步长,可能会导致流固耦合计算效率的大大降低。因此,在流体区域和固体区域采用相同的时间步长在绝大多数工程实际问题是不适宜的。基于MpCCI的流固耦合方案采用时间异步技术,可以根据固体求解器和流体求解器的效率和并行性能的特点灵活合理的设置不同的流体和固体的时间步长,大大降低流固耦合的计算时间复杂度。
(7). 基于MpCCI的流固耦合解决方案能够实现在各种计算平台、各种网络环 境下高效率的并行计算
MpCCI采用客户机服务器体系结构,客户机和服务器的通信采用通用的MPI协议,使得基于MpCCI的流固耦合方案可以运行各种主流的如超级计算机、PC Cluster等计算机平台和TCP/IP、Infiniband、Myrinet等网络环境。MpCCI可以采用后台方式运行,支持LSF、PBS等并行批处理作业和计算机系统资源管理工具。在计算的过程中,客户端代码本身的并行仍然采用原有的并行机制,如FLUENT、NASTRAN、ABAQUS、ANSYS仍然采用各自的并行方式,基于MpCCI的流固耦合解决方案不会影响客户端软件的并行性能。另外,基于MpCCI的流固耦合解决方案既可以让客户端程序之间串行方式执行,也可以并性方式执行。如FLUENT和NASTRAN/ABAQUS/ANSYS同时求解,在完成一个时间步后交换数据,然后FLUENT和NASTRAN/ABAQUS/ANSYS再同时求解,如此循环。这将极大提高大负荷问题的解算效率。因此,基于MpCCI的流固耦合解决方案能够在各种环境下实现高效率的并行计算。
(8). 基于MpCCI的耦合解决方案能够实现流体、固体、热、电磁、控制等多物理环境耦合分析
真实环境下CAE模拟的对象除了流固耦合的相互作用,还会由其他传热、辐射和反馈控制等更多的因素。比如飞行器控制系统对飞行器操纵控制等多种因素相互作用相互影响的问题。基于MpCCI的耦合解决方案可以解决三个或者三个以上的多物理场耦合问题,能够实现流体、固体、热、电磁、控制等诸多物理环境耦合分析。
3. MpCCI软件支持高性能计算
操作系统
MpCCI支持目前各种主流的操作系统。具体包括:
Windows操作系统:
Windows XP、 Windows XP 64、Windows Vista、Windows Vista 64
Linux操作系统:
Redhat、SUSE等linux操作系统
Unix操作系统:
支持HP-UX 11.00、HP-UX 11.22、HP-UX 11.23、IBM AIX 5.1、IBM AIX 5.2、IBM AIX 5.3、SUN Solaris 、OSF、SGI IRIX等
CPU 类型
MpCCI支持各种dual core、quad core的CPU类型。具体包括:
Intel系列
Intel x86、Intel EMT64、Itanium I、Itanium II
AMD 系列
AMD x86、AMD64、AMD Opteron
SUN Sparc系列处理器
IBM Power系列处理器
HP PA-RISC系列处理器
并行能力
软件的并行能力
MpCCI本身的并行数目没有限制,并行能力由与MpCCI连接的应用软件的并行能力决定。基于MpCCI的流固耦合解决方案不会影响客户端软件的并行性能。另外,基于MpCCI的流固耦合解决方案既可以让客户端程序之间串行方式执行,也可以并性方式执行。如FLUENT和ABAQUS/ANSYS同时求解,在完成一个时间步后交换数据,然后FLUENT和ABAQUS/ANSYS再同时求解,如此循环,这将极大提高大负荷问题的解算效率。因此,基于MpCCI的流固耦合解决方案能够在各种环境下实现高效率的并行计算。
列举软件可并行的模块
MpCCI的核心服务器和底层应用程序都支持并行。
列举软件不能并行的模块
MpCCI的代码适配器不能并行,因为代码适配器仅仅是扫描底层应用程序的数据库文件的格式和语法,它的IO量和计算量几乎可以忽略不计,因此不需要并行。
软件并行对网络互联的支持,比如infiniband
MpCCI利用MPICH作为内部通信接口,支持infiniband、Myrinet等网络环境下的并行计算。
网格计算(Grid computing)
MpCCI支持后台方式运行,支持LSF、PBS、NQS等批处理作业和计算机系统资源管理工具。