并行分子动力学论文_张帅,徐顺,刘倩,金钟

导读:本文包含了并行分子动力学论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:动力学,分子,算法,天河,高分子,构件,凹凸。

并行分子动力学论文文献综述

张帅,徐顺,刘倩,金钟[1](2018)在《基于GPU的分子动力学模拟Cell Verlet算法实现及其并行性能分析》一文中研究指出分子动力学模拟存在空间和时间的复杂性,并行加速分子的模拟过程尤为重要。基于GPU硬件数据并行架构的特点,组合分子动力学模拟的原子划分和空间划分的并行策略,优化实现了短程作用力计算Cell Verlet算法,并对分子动力学核心基础算法的GPU实现做了优化和性能分析。Cell Verlet算法实现首先采用原子划分的方式,将每个粒子的模拟计算任务映射到每个GPU线程,并采用空间划分的方式将模拟区域进行元胞划分,建立元胞索引表,实现粒子在模拟空间的实时定位;而在计算粒子间的作用力时,引入希尔伯特空间填充曲线方法来保持数据的线性存储与数据的叁维空间分布的局部相关性,以便通过缓存加速GPU的全局内存访问;也利用了访存地址对齐和块内共享等技术来优化设计GPU分子动力学模拟过程。实例测试与对比分析显示,当前的算法实现具有强可扩展性和加速比等优势。(本文来源于《计算机科学》期刊2018年10期)

李韧[2](2018)在《基于空间划分并行算法的大规模分子动力学体系研究》一文中研究指出分子动力学(Molecular Dynamics,MD)是一种新型的模拟大量分子间相互作用的纳米技术,使我们能够在微观尺度下对纳米材料进行更加细微的研究。Nano MD是南京大学赵健伟教授实验室自主研发的一款以分子动力学为基础,在纳米仿真领域中应用广泛的计算软件。本文针对纳米技术时空尺度大的特殊需求,利用空间划分算法与MPI消息传递方案实现了大规模分子动力学并行计算。各分布式节点独占内存,使用虚拟进程和笛卡尔拓扑排列进程使得程序有更好的性能和拓展性。结果表明,空间划分算法中体系规模越大并行效率越高。同一个体系随着计算核心数的增多,通信占比增加,加速比逐渐趋于平缓。将统计物理化学和计算机大数据的概念结合起来,实现大规模分子动力学样本的并发操作。本文针对初始结构,初始形变和断裂位置分布这叁者之间的联系进行了系统的分子动力学研究。主要分为叁个方面,凸凹微结构对初始形变的影响,断裂行为的分布特征与初始形变的关系,以及银纳米线中孪晶、缺陷等特殊结构对拉伸形变行为的影响。1,微凸纳米线与单晶纳米线表现了类似的行为,其能量和应力应变曲线等均无显着差异,即使改变不同的凸起高度亦未发现显着差别。沿z轴的应力分布分析表明凸微结构使局域应力降低,不能诱导初始结构形变;凹陷处使应力集中,此处结构不稳定容易导致位错产生。2,追踪了一个非应力集中处的偶发样本断裂过程,详细观察了以其8个不同应变时刻为初始构型的断裂分布特征。初始构型处于屈服区时,尽管体系已产生系列滑移面,但断裂位置和断裂应变的分布与单晶相同。以塑性形变初期为初始构型,虽总体分布特征与单晶相似,但断裂应变分布峰向更大的应变量方向移动。以塑性形变中期为初始构型,原偶发样本的断裂位置附近出现分布,即偶发事件逐渐演化为概率事件。以塑性形变末期的纳米线为初始构型,原概率分布消失,原偶发样本断裂位置出现一个半峰宽极窄的分布。3,最后模拟了具有四种不同初始结构的银纳米线沿[111]晶向拉伸的形变行为,考察位错、孪晶等初始结构差异对位错产生和发展的影响,并进一步讨论其与最终断裂位置分布的关系。本文的研究不仅对纳米器件的设计提供参考,所采用的分析手段也为系统研究纳米材料建立基础,算法和程序改进为Nano MD软件的进一步推广奠定了良好的基础。(本文来源于《西南交通大学》期刊2018-05-18)

彭云峰[3](2018)在《基于并行构件技术的分子动力学模拟系统的设计与实现》一文中研究指出本文基于传统的分子动力学模拟方法和高性能计算平台的资源情况,提出了用并行构件技术解决分子动力学模拟软件开发的方法,使用高级语言编写分子动力学模拟软件的并行构件,提高了模拟软件的开发效率和运行性能。(本文来源于《数字技术与应用》期刊2018年01期)

李大普[4](2017)在《金属凝固分子动力学模拟的CPU-GPU异构并行算法研究》一文中研究指出金属凝固模拟技术因其相对完备的理论基础,被广泛应用于新材料及其制造加工等重要研究领域。随着科技的进步,金属凝固技术展现出蓬勃的发展趋势。然而,金属凝固模拟的物理试验总是不可避免的存在各类干扰因素,且很多重要的参数也无法通过物理实验获取。本文主要研究分子动力学模拟技术,该技术能对金属凝固的微观结构进行可视化分析,相较于物理模拟试验,其优势在于花费少,用时少,而且金属凝固研究所需的所有重要参数几乎都能模拟。随着并行计算技术的快速发展,分子动力学模拟的应用变得更加广阔。当前,分子动力学模拟的并行化研究主要在CPU或GPU计算平台上实现。但随着对金属凝固模拟精度要求的提高,模拟系统所需的计算规模随之急剧增大,迫切需要更大规模的计算资源才能满足需求。CPU-GPU异构平台作为高性能计算体系结构之一,能够在一般通用计算中兼顾计算效能与编程通用性,大幅提升模拟系统的整体性能,但在面对大规模分子动力学模拟这种具有迭代依赖的应用时,异构资源的负载均衡以及相应的并行优化技术,是进一步提高模拟精度的关键。本文基于CPU-GPU高性能计算异构体系结构和典型的金属凝固模拟应用,围绕并行处理的关键技术展开研究。重点研究了CPU集群结构和CPU-GPU异构体系结构的分子动力学并行算法和异构系统的负载均衡策略,并针对金属原子间相互作用力计算展开了并行实现研究。主要工作包括:(1)针对CPU集群结构和分子动力学模拟的特点,提出了一种基于多核CPU集群的分子动力学模拟并行算法。重点对分子动力学模拟中计算量占比最高的势函数计算部分进行了并行算法优化设计,并对分子动力学模拟研究工作中涉及的并行虚拟机(PVM)模型程序进行改进,设计了一种应用于大规模分子动力学模拟研究的并行算法。该算法主要是采用MPI与OpenMP程序模型,通过采用区域分解的负载均衡策略,改进了PVM模型的编程模型,扩展了粒子系统的规模。最后,通过物理估算方法证实了模拟结果的准确性。(2)针对CPU-GPU异构体系结构的特点,提出了一种基于CPU-GPU平台的分子动力学模拟并行算法。通过利用GPU在密集计算领域中的强大能力,再结合多核CPU的特点,有效地缓解了分子动力学模拟系统中GPU因自身内存不足造成的瓶颈问题。通过利用天河1A超级计算机系统作为实验平台,应用该算法成功实现了1千万个金属原子的分子动力学模拟实验,最后对该算法在CPU-GPU异构系统与纯CPU系统中的时间性能进行了分析。结果表明,在合理的资源分配条件下,采用CPU-GPU异构平台比仅采用CPU集群要节省至少6倍的时间。(3)针对大规模分子动力学模拟时计算资源的负载均衡低效导致算法整体性能下降的现象。提出了一种基于CPU-GPU平台的分子动力学负载均衡策略。该策略根据CPU-GPU体系结构中各核心的计算能力建立起分配模型,利用启发式算法对大规模粒子系统进行任务比例分配,以达到大规模分子动力学模拟并行算法的总执行时间最小化。实验结果表明,所提出的负载均衡策略能有效地提升分子动力学模拟并行算法的综合性能。(4)针对分子动力学模拟中多体势函数计算需求难以满足的问题,提出了一种基于CPU-GPU结构的分子动力学模拟算法。一方面,多体势模型的子项比对势模型更加多样化,另一方面多势函数的计算量也比对势函数更加复杂,而且多势函数的计算在整个算法中也占据了很高的比例。于是本文对分子动力学模拟中多势函数的计算进行了并行化分析和优化设计实现。最后在天河1A超级计算机系统中实现了基于CPU-GPU异构计算体系下的金属凝固分子动力学模拟。实验表明,该并行算法不仅能提升大规模分子动力学模拟计算的性能,也能提升粒子模拟计算的规模。(本文来源于《湖南大学》期刊2017-10-26)

冯剑[5](2017)在《分子动力学程序的面向对象C++设计与OpenMP并行化》一文中研究指出利用分子动力学模拟研究的对象越来越复杂,造成编程越来越困难,计算的工作量越来越大,利用面向对象和并行化技术可以有效解决这些问题。本文给出从分子动力学模拟研究的对象和过程抽象出面向对象模型的方法,着重讨论了OpenMP的并行化方法。对实际体系的模拟表明,该程序的并行效率很高,加速比接近于使用的CPU核心数。可以用来对更大的体系进行模拟研究。(本文来源于《滁州学院学报》期刊2017年05期)

祁美玲,杨琼,王苍龙,田园,杨磊[6](2017)在《结构材料辐照损伤的分子动力学程序GPU并行化及优化》一文中研究指出基于NIVIDIA公司的CUDA架构对结构材料辐照损伤的分子动力学程序在单个GPU上进行并行化,并对影响程序运行效率的相关因素进行分析和测试.经过一系列优化,当粒子数为两百万时,对比单CPU的执行时间,优化后的GPU程序其双精度加速比可达112倍,单精度加速比达到了叁百倍,为后续扩展多GPU结构材料辐照损伤的分子动力学程序奠定基础.(本文来源于《计算物理》期刊2017年04期)

祁美玲,王苍龙,田园[7](2016)在《结构材料辐照损伤的分子动力学程序GPU并行化及优化方法》一文中研究指出分子动力学模拟方法作为研究结构材料初级辐照损伤的重要模拟工具,由于受到计算能力的制约,很难模拟千万乃至数亿量级的原子体系。本文基于NIVIDIA公司的CUDA架构对结构材料辐照损伤的分子动力学程序在单个GPU上进行了并行化,并对影响程序运行效率的相关因素进行了分析和测试。经过一系列优化,相比于单CPU的执行时间,粒子数为两百万时,双精度加速比可达112倍,单精度加速比达到了叁百倍,为后续扩展为大规模多GPU的结构材料辐照损伤的分子动力学程序打下基础。(本文来源于《2016第八届全国计算物理会议报告文集》期刊2016-10-31)

朱有亮,吕中元,孙昭艳[8](2016)在《分子动力学模拟程序GALAMOST的多GPU并行进展介绍》一文中研究指出我们发展了一个通用的分子动力学模拟程序包,称为GALAMOST,是GPU-accelerated large-scale molecular simulation toolkit的缩写[1]。GALAMOST程序包可以充分利用GPU的运算能力。GALAMOST的所有运算都在GPU上完成,没有GPU显存和主机内存之间的数据传递,因此大大提高了GPU的利用效率。GALAMOST程序包除了包含一些通用的分子动力学模拟方法外,还包含了一些最近发展的针对高分子体系的粗粒化模型和模拟方法,比如粒子-场方法[2],迭代玻尔兹曼粗粒化方法[3],软的各向异性粒子模型[4],以及链增长聚合反应模型[5]。在之前的工作中我们发展了高度优化的单GPU的GALAMOST代码。最近我们在单GPU代码的基础上,进一步发展了多GPU并行的GALAMOST代码。多GPU并行的代码利用空间划分的算法,一个GPU负责计算一个区域空间内的粒子,数据传递通过MPI完成。利用节点内的Peer-to-Peer和节点间的Remote Direct Memory Access技术,GALAMOST还支持GPU间的直接通信,进一步提高程序的计算效率。希望GALAMOST能为科学研究者提供一个方便、快捷和强大的分子模拟工具。(本文来源于《中国化学会2016年软物质理论计算与模拟会议论文摘要集》期刊2016-08-25)

王海强[9](2015)在《天河2号上CPU/MIC协同的分子动力学模拟软件GROMACS并行加速技术研究》一文中研究指出分子动力学(MD)模拟是一种使用牛顿经典力学模拟微观粒子运动来获得原子体系的宏观性质的模拟方法。GROMACS是一款由格罗宁根大学研发的用来做分子动力学模拟的主流软件,目前已经经过几十个版本的加速优化,包括常见的MPI、OPENMP、GPU和SIMD等,优化体系十分完善,该软件功能强大,用户友好,能够满足几乎所有常见的原子体系模拟需要。目前,使用GROMACS软件来进行分子动力学模拟最大的问题是软件运行周期过长。2014年,由中国国防科学技术大学研发的“天河2号”超级计算机以其33.86petaflop/s的性能被国际Top500评为世界性能第一的超级计算机。“天河2号”拥有32000块CPU卡和48000块MIC卡,计算资源丰富,是国内最新的超算平台,在国内超算领域受到广泛认可。1、经过实际验证,GROMACS在“天河2号”超级计算机上运行时,只能使用CPU而无法使用MIC,没有充分使用“天河2号”超级计算机的计算资源。针对这个问题,本文分析了GROMACS软件在实现offload模式中的问题和困难,然后在此基础上,不断通过数据整合,多计算单元并行,使用新数据流等方式进行加速优化,并最终完成了单MIC卡上对GROMACS软件的offload模式的优化。该方法可以让GROMACS软件运行时,利用“天河2号”的MIC协处理器对软件进行并行加速。最终测试发现,offload模式的GROMACS软件取得了一定的加速效果。2、针对offload模式优化的GROMACS软件效率过低的情况,本文经过深入研究和分析,发现引入额外时间开销过大是制约软件效率的主要原因。通过使用新的数据流优化,多计算单元加速的方法,本文进一步减了offload模式的GROMACS软件的额外开销,提高了软件的并行度,在单节点上让CPU和MIC协同计算GROMACS的核心计算模块,令软件的性能有了质的飞跃,实现了使用offload模式对GROMACS软件的并行加速。3、在实际使用时,为了满足计算需要,GROMACS经常被跨节点使用。所以从实用性和可拓展性考虑,本文对跨节点的GROMACS软件进行了offload模式的并行加速。在实现过程中,本文将跨节点GROMACS软件的局部势能力和非局部势能力部分分别offload到MIC卡进行计算,并针对数据的不同特征将数据分为四种通信模式,减少通信开销,最终实现跨节点GROMACS软件的offload模式并行加速。总之,本文针对“天河2号”异构平台,在全世界范围内第一个实现了MIC卡上基于offload模式的GROMACS软件的并行优化,并取得了很好的加速效果。(本文来源于《国防科学技术大学》期刊2015-11-01)

刘欣[10](2015)在《天河2号上一种分子动力学模拟软件AMBER的并行化加速技术研究》一文中研究指出分子动力学模拟是一种对原子和分子的物理运动进行计算机模拟的方法,随着分子动力学模拟方法的不断改进和完善,其功能越来越丰富,模拟的分子体系规模和时间长度也一直在增长。然而,大规模原子体系进行微秒级的分子动力学模拟需要耗费大量的计算资源和时间,当前现有的服务器和分子动力学模拟算法已经无法及时有效的处理如此大规模的动力学模拟任务。本课题就是针对上述问题,根据天河2号超算系统上的大规模CPU-MIC微异构体系结构,对最常用的分子动力学模拟软件Assisted Model Building with Energy Refinement(AMBER)进行并行算法设计和优化加速研究。在保证结果正确的前提下,在不同层次上和规模上对AMBER进行深度并行优化,主要研究工作如下:首先,针对AMBER软件包的sander程序,在CPU上对其进行细粒度的并行优化。sander作为AMBER软件包的模拟器程序,是分子动力学模拟的核心。针对sander程序热点部分,提出了去除循环依赖、改进数据结构等手段,基于OpenMP编程技术,实现了对分子动力学模拟程序AMBER-sander细粒度并行优化加速。我们还利用MIC(Many Integrated Cores)协处理器Intel Xeon Phi超强的并行计算能力,将AMBER-sander的核心计算任务移植到MIC上,首次实现了基于MIC的分子动力学模拟程序AMBER-sander的并行加速。相比原来的AMBER-sander程序,基于MIC的sander-mic获得了3-4倍的加速。其次,为了充分利用CPU与MIC的计算资源,我们设计和实现了面向天河2号的CPU与MIC微异构协同的分子动力学模拟并行优化算法。提出了内存管理优化、数据传输优化、通信延迟隐藏、向量化以及负载均横等多种并行优化方法,在单节点上,对分子动力学模拟软件AMBER-sander实现了5-6倍的加速,把单CPU单MIC协同并行加速扩展到面向天河2号的单节点多CPU多MIC卡的协同并行。最后,通过对AMBER-sander的可扩展性进行分析,在多节点层面对其进行并行加速。对于分子动力学模拟算法本身而言,由于迭代次数多,每次迭代都需要进行数据规约和数据分发,通信开销成为多节点并行加速的一个主要问题和瓶颈。我们在保证计算结果的误差在一定范围内,对算法进行了跨节点并行优化,由原来的每一次迭代都要进行数据规约操作,变成每隔固定次迭代再进行数据规约操作,使得通信开销大大减少,程序可以在天河2号多个节点上高效地运行,全面提高了程序的并行可扩展性。总之,本文基于天河2号,通过在以上3个层面上对分子动力学模拟软件AMBER-sander进行并行优化加速,从单CPU上的细粒度OpenMP并行、单节点CPU与MIC协同的并行优以及多节点多MIC卡的协同并行,相比原来的程序都有不同程度的加速,最高的加速比达到5-6倍。(本文来源于《国防科学技术大学》期刊2015-11-01)

并行分子动力学论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

分子动力学(Molecular Dynamics,MD)是一种新型的模拟大量分子间相互作用的纳米技术,使我们能够在微观尺度下对纳米材料进行更加细微的研究。Nano MD是南京大学赵健伟教授实验室自主研发的一款以分子动力学为基础,在纳米仿真领域中应用广泛的计算软件。本文针对纳米技术时空尺度大的特殊需求,利用空间划分算法与MPI消息传递方案实现了大规模分子动力学并行计算。各分布式节点独占内存,使用虚拟进程和笛卡尔拓扑排列进程使得程序有更好的性能和拓展性。结果表明,空间划分算法中体系规模越大并行效率越高。同一个体系随着计算核心数的增多,通信占比增加,加速比逐渐趋于平缓。将统计物理化学和计算机大数据的概念结合起来,实现大规模分子动力学样本的并发操作。本文针对初始结构,初始形变和断裂位置分布这叁者之间的联系进行了系统的分子动力学研究。主要分为叁个方面,凸凹微结构对初始形变的影响,断裂行为的分布特征与初始形变的关系,以及银纳米线中孪晶、缺陷等特殊结构对拉伸形变行为的影响。1,微凸纳米线与单晶纳米线表现了类似的行为,其能量和应力应变曲线等均无显着差异,即使改变不同的凸起高度亦未发现显着差别。沿z轴的应力分布分析表明凸微结构使局域应力降低,不能诱导初始结构形变;凹陷处使应力集中,此处结构不稳定容易导致位错产生。2,追踪了一个非应力集中处的偶发样本断裂过程,详细观察了以其8个不同应变时刻为初始构型的断裂分布特征。初始构型处于屈服区时,尽管体系已产生系列滑移面,但断裂位置和断裂应变的分布与单晶相同。以塑性形变初期为初始构型,虽总体分布特征与单晶相似,但断裂应变分布峰向更大的应变量方向移动。以塑性形变中期为初始构型,原偶发样本的断裂位置附近出现分布,即偶发事件逐渐演化为概率事件。以塑性形变末期的纳米线为初始构型,原概率分布消失,原偶发样本断裂位置出现一个半峰宽极窄的分布。3,最后模拟了具有四种不同初始结构的银纳米线沿[111]晶向拉伸的形变行为,考察位错、孪晶等初始结构差异对位错产生和发展的影响,并进一步讨论其与最终断裂位置分布的关系。本文的研究不仅对纳米器件的设计提供参考,所采用的分析手段也为系统研究纳米材料建立基础,算法和程序改进为Nano MD软件的进一步推广奠定了良好的基础。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

并行分子动力学论文参考文献

[1].张帅,徐顺,刘倩,金钟.基于GPU的分子动力学模拟CellVerlet算法实现及其并行性能分析[J].计算机科学.2018

[2].李韧.基于空间划分并行算法的大规模分子动力学体系研究[D].西南交通大学.2018

[3].彭云峰.基于并行构件技术的分子动力学模拟系统的设计与实现[J].数字技术与应用.2018

[4].李大普.金属凝固分子动力学模拟的CPU-GPU异构并行算法研究[D].湖南大学.2017

[5].冯剑.分子动力学程序的面向对象C++设计与OpenMP并行化[J].滁州学院学报.2017

[6].祁美玲,杨琼,王苍龙,田园,杨磊.结构材料辐照损伤的分子动力学程序GPU并行化及优化[J].计算物理.2017

[7].祁美玲,王苍龙,田园.结构材料辐照损伤的分子动力学程序GPU并行化及优化方法[C].2016第八届全国计算物理会议报告文集.2016

[8].朱有亮,吕中元,孙昭艳.分子动力学模拟程序GALAMOST的多GPU并行进展介绍[C].中国化学会2016年软物质理论计算与模拟会议论文摘要集.2016

[9].王海强.天河2号上CPU/MIC协同的分子动力学模拟软件GROMACS并行加速技术研究[D].国防科学技术大学.2015

[10].刘欣.天河2号上一种分子动力学模拟软件AMBER的并行化加速技术研究[D].国防科学技术大学.2015

论文知识图

3-14 500 个 C 原子体系的矩阵计算并行...实验原理示意图模拟的典型计算过程二维周期性系统示意图链接元胞法(a)和近邻表法(b)示意图原子分解法示意图

标签:;  ;  ;  ;  ;  ;  ;  

并行分子动力学论文_张帅,徐顺,刘倩,金钟
下载Doc文档

猜你喜欢