商家名称 |
信用等级 |
购买信息 |
订购本书 |
|
 |
面向千万亿次计算的算法与应用 |
 |
|
 |
面向千万亿次计算的算法与应用 |
 |

基本信息·出版社:清华大学出版社
·页码:356 页
·出版日期:2008年08月
·ISBN:7302177228/9787302177227
·条形码:9787302177227
·版本:第1版
·装帧:平装
·开本:16
·正文语种:中文
·外文书名:Petascale Computing Algorithms and Applications
内容简介 这是第1本系统阐述千万亿次计算的图书。
在过去的几十年内,在高性能计算应用、算法和体系结构的支持下,在科学、工程和社会领域发生了许多突破性的进展。本书是那些在千万亿次计算领域前沿性研究成果的结晶。作者试图通过汇集在高性能计算和计算科学领域最成熟和已积累丰富经验的应用的最新成果,来解决在开发千万亿次系统应用代码中的一些挑战性应用,这些应用能够在新的千万亿次系统产生和部署之前,就提前针对其体系结构的特点来进行开发。开发千万亿次应用将会需要丰富的关于千万亿次系统硬件和系统软件方面的知识,我们需要大量的时间来做扩展、测试、评估以及优化千万亿次代码、库、算法、系统软件的工作,所有这些工作都将基于即将构建的新系统来进行。
对于高性能计算来说,这是一个激动人心的时代,这个时代将会在一个新的规模和尺度上产生大量史无前例的新发现,这些发现将会对科学和社会带来切实的好处。本书可以让你对千万亿次应用和算法前沿性挑战性研究工作的第一次浪潮有一个概观,为目前和未来的千万亿次研究提供非常必要的基础。
作者简介 David A. Bader是高性能计算所的所长,教授,长期从事计算科学与工程领域研究,该研究所隶属于佐治亚理工学院计算学部。他在1996年从马里兰大学(University of Maryland)获得博士学位,后赢得美国国家自然科学基金支持在实验计算机科学方面从事博士后研究。他获得了美国自然科学基金CAREER支持,是IEEE计算机学会优秀访问人员计划中的杰出演讲者,是IBM PERCS组DARPA高吞吐率计算机系统计划项目组的成员,佐治亚理工学院Sony-Toshiba-IBM Cell处理器中心的主任。他还是Internet2研究顾问委员会的成员,是IPDPS和HiPC会议指导委员会的成员,作为主席组织了很多高性能计算以及计算科学与工程方面的会议。Bader博士是许多高级重要出版物的编辑,包括IEEE Transactions on Parallel and Distributed Systems,ACM Journal of Experimental Algorithmics, IEEE DSOnline,以及Parallel Computing。他是IEEE计算机协会的资深会员,ACM会员。
Bader博士在用高性能计算解决生物信息学以及计算基因问题方面是取得前沿性研究成果的科学家。他作为联合主席主持了高性能计算生物学IEEE International Workshop on High-Performance Computational Biology (HiCOMB)的系列会议,曾为几本书撰写了部分章节,联合编辑了Journal of Parallel and Distributed Computing (JPDC)和IEEE Transactions on Parallel and Distributed Systems (TPDS)在高性能计算生物学方面研究的专刊。他还是80余篇被同行审阅过的期刊论文、会议论文的作者,他的主要研究领域是并行算法,组合优化,计算生物学与计算基因学。
目录 第1章千万亿次计算科学应用的性能特征
1.1介绍
1.2测试的各种体系结构
1.3科学应用概述
1.4GTlC:Particle-in-Cell磁融解
1.5ELBM3D:晶格玻耳兹曼流体动力学
1.6Cactus:通用的相对天体物理学
1.7PARATEC:材料科学的第一原理
1.8HyperCLaw:双曲AMR气体动力学
1.9总结与结论
1.10致谢
参考文献第2章千万亿次的计算对NASA未来使命的影响
2.1介绍
2.2Columbia超级计算机
2.3航空宇宙分析及计算
2.3.1方法论
2.3.2结果
2.3.3NASA使用千万亿次计算的好处2.4.推进子系统分析
2.4.1方法
2.4.2结果
2.4.3千万亿次计算给NASA带来的益处
2.5飓风预测
2.5.1方法
2.5.2结果
2.5.3千万亿计算对NASA的益处
2.6瓶颈
2.7总结
参考文献一第3章多物理模拟与千万亿次计算
3.1引言
3.2下一代超级计算机
3.3适用于大规模并行机的编程模型
3.3.1新型并行语言
3.3.2MPI-2
3.3.3协作式并行
3.3.4协作式并行的应用实例
3.4多尺度算法
3.4.1并行的多重网格方法
3.4.2ALE-AMR离散化
3.4.3离散一连续统混合算法
3.5目前及将来的应用
3.5.1万亿次仿真的技术现状
3.5.2通过协作并行进行多物理模拟
3.6未来展望
3.7致谢
参考文献
第4章针对Uintah多物理程序代码的可扩展并行AMR算法研究
4.1前言
4.2自适应格网优化
4.3Uintah程序框架
4.3.1仿真组件
4.3.2负载均衡器
4.3.3调度器
4.4格网重构器
4.5提高性能
4.6将来的工作
4.7致谢
参考文献
第5章使用Enzo对宇宙进化进行仿真
5.1宇宙结构的形成
5.2Enzo的编码
5.2.1物理层建模和数值算法
5.2.2自适应格网细化
5.2.3实现
5.2.4并行化
5.2.5快速的邻居格网搜索
5.2.6Enzo的I/O
5.3在万亿次平台上的性能和可扩展性
5.3.1单格网应用
5.3.2AMR.应用
5.3.3并行扩展
5.4将Enzo运行在万亿次计算机平台上
5.5致谢
第6章 重大影响天气现象数值预测:千万亿次计算的重要动力
第7章 千万亿次气象科学应用的软件设计
第8章 迈向分布式千万亿次计算
第9章 千万亿次计算时代的生物分子建模
第10章 用于分子动力学模拟的千万亿次计算机
第11章 在千万亿次超级计算机上进行生物分子仿真
第12章 处理大规模图的多线程算法
第13章 千万亿次计算中的灾难恢复算法研究
第14章 TSUBAME的研制与未来发展
第15章 通过SMP模块构造千万亿次的性能
第16章 千万亿次系统的性能及其复杂性分析
第17章 高度可扩展的性能分析工具
第18章 面向千万亿次计算规模的多级有限元求解器
第19章 高效有限元代码开发的混合方法
第20章 使用Charm++编写千万亿次应用程序
第21章 基于注解的高产出率和性能移植性
第22章 高效能编程语言的局部性感知特性
第23章 体系结构与程序设计方法对获得持续千万亿次计算性能的影响
第24章 Cactus框架:从黑洞到伽玛射线脉冲
……
序言 在过去的几十年内,在高性能计算应用、算法和体系结构的支持下,在科学、工程和社会领域发生了许多突破性的进展。这些强有力的工具为研究人员、教育工作者和实践工作者提供了这样的能力,就是通过计算,可以把从全球收集获得的数据,转换为解决我们社会最具有挑战性问题的解决方案。
持续推动高性能计算发展的一支重要的力量是针对“前沿性里程碑”问题产生的一些社团联盟,比如它们会提出代表这一领域下一阶段进展的技术目标。在19世纪90年代,高性能计算组织希望实现万亿次(每秒1012的浮点操作)的计算能力,万亿次计算导致了一些新的发现,比如设计新的药物来对抗艾滋病和其他的疾病;对自然现象的仿真可以达到前所未有的精度,比如地震和飓风;对大系统,比如宇宙,和小系统,比如比细胞还小的一些系统有了更好的理解;现在我们将要在于万亿次(每秒1015的浮点操作)级别的机器上进行计算。一些研究组织正在考虑亿亿次(每秒1018的浮点操作)级别的计算将会是什么样子,他们处在这一研究的早期阶段。
在走向“下一个前沿计算”的过程中,一个假设就是高性能计算体系结构的下一个研究前沿将会提供新的极大的容量和能力,这将使得以前需要大量资源但是又得不到满足的用户直接受益,同时对其他的用户将带来长期的裨益。但是大规模高性能计算用户都知道,高效使用前沿超级计算系统能力,同不断增加系统容量和能力相比,如果不是同等重要,就是重要性更高,我们需要投入大量的时间、人力、软件和硬件基础设施来充分利用这些非同寻常的系统。经验表明,通过开发可扩展的算法,模型,仿真,分析,库和应用组件,可以充分利用这些前沿系统所提供的容量和能力,因此它与建造和部署该前沿系统本身一样,是非常具有挑战性的工作。
对于未来几年内可以支持千万亿次操作的应用程序代码,不管用什么样的处理器技术,将会需要几十万个甚至更多的处理器核心。目前,几乎还没有可以很容易扩展到这种规模的高性能计算程序代码,大量的程序代码开发工作对于挖掘新的千万亿次系统的潜能是非常重要的。扩展到千万亿次系统涉及的工作包括:提高物理模型,数学抽象,近似和其他的应用组件。我们需要提高各种解决方案的算法来增加结果的准确性。输入数据集需要在分辨率上进行提高(产生更多的数据),或者是用于测量的输入数据的精度需要提高。每一个应用或者算法的提高都会给开发千万亿次代码带来实质性的挑战,会从新应用执行得到的领域结果中推动新的计算机科学的发现。
本书是那些在千万亿次计算领域前沿性研究成果的结晶。作者试图通过汇集在高性能计算和计算科学领域最成熟和已积累丰富经验的应用的最新成果,来解决在开发千万亿次系统应用代码中的一些挑战性问题,这些应用能够在新的千万亿次系统产生和部署之前,就提前针对其体系结构的特点来进行开发。开发千万亿次应用将会需要丰富的关于千万亿次系统硬件和系统软件方面的知识,我们需要大量的时间来做扩展,测试,评估以及优化千万亿次代码、库、算法、系统软件的工作,所有这些工作都将基于即将构建的新系统来进行。
文摘 1.5 ELBM3D:晶格玻耳兹曼流体动力学
LBM:(Lattice-Boltzmann methods)晶格玻耳兹曼方法已经证明是传统数值方法的一种很好的替代,也可以用于模拟流体以及对流动物理学进行建模[29]。其基本的想法就是开发一个简单的动力学模型,结合内在的物理过程,可以重新产生正确的宏观平均特性。从19世纪80年代中期以来,这些算法得到了广泛的应用,用于模拟Navier-Stokes流,最近扩展到可以处理多项流、反作用流、扩散过程和磁发电机流体力学。正像从显式算法中可以得到的那样,当一个算法推向更高的雷诺数的时候,LBM趋向于数值非线性不稳态。这些数值不稳态会上升,因为没有强加的约束会促使分布函数保持非负。熵LBM算法可以保持分布函数的非负性,即使在任意小的传输系数约束的情况下也是这样,该算法已被用于Navier-Stokes湍流[2],而且已经被结合到了最近开发的代码之中[30]。
LBM方式使得很困难的边界几何(比如通过使用边界返回的策略来模拟没有滑动墙的情况)的实现变得比较容易。这里我们介绍周期边界条件下的三维模拟情况,其空间格网和相空间向量格子相互重叠在一起。每一个格子点和一些mesoscopic变量关联在一起,其值与流方向数量成比例,并且存储在向量中。该格子被划分到一个三维笛卡儿处理器网状拓扑结构上,用MPI来实现通信,图1-3(a)展示的是一个通信拓扑的情况,重点强调了相对稀疏的通信模式。对这种情况的大多数模拟,都是通过扩展边界区域空间来存储从邻居处理器获得的数据拷贝。
对于ELBM3D,为了使得碰撞过程满足一定的约束条件,需要在每一个迭代步对每一个格网点求解一个非线性方程。由于这一方程需要对分布函数的各个组成部分求对数,因此整个算法的性能就特别受限于log()函数的性能。
图1-3(a)展示的ELBM3D的连接关系,在结构上与Cactus非常接近,但是由于代码周期性边界条件的不同,其通信模式上就有细微的差异。从同构性的角度看,该拓扑与格网或者环互连拓扑有很大不同,但是对于胖树或者互连开关这样的全互连网络,它对可得的对分带宽的占用非常有限。图1.3(c)表明,和]Cactus一样,ELBM3D主要的通信形式是点到点通信,但是图1.3(b)表明点到点消息缓冲区的空间很大,因此它受带宽的限制很大。