2013年10月29-31日,“第三届面向百亿亿级计算的协同设计国际研讨(CO-DESIGN2013)"在广西桂林召开,会议由中国科学院计算技术研究所田荣研究员主持,中国高性能计算专业委员会主任、计算技术研究所所长孙凝晖研究员,国际计算力学学会主席Genki Yagawa,副主席袁明武教授(北京大学)出席会议并致开幕辞。计算技术研究所徐志伟研究员受邀出席并重点介绍了中国的云-海计算战略先导项目。
会议由26个邀请报告组成。第一个半天主要由四个大会报告组成,综合介绍了美国,日本,中国以及欧洲的极大规模计算的最新动态。美国能源部的先进科学计算部主任William Harrod讲解了极大规模计算的所面临的任务,以及如何重新理解和定义E级计算。东京工业大学的Satoshi Matsuoka教授介绍了TSUBAME在灾害预防、环境、医药、制造业三个主要领域的应用情况,详细介绍了从TSUBAME2.0升级到2.5对硬件架构的改变和性能的提高,值得注意的是在从TSUBAME2.0升级到2.5的过程中,通过更换GPU部件使得单精度性能提升了3.6倍,双精度性能提升了2.4倍,峰值从0.7P提高到1.16P,但是总体的能耗降低了20%。国家863计划高性能计算机及其核心软件重大专项总体组组长、北京航空航天大学的钱德沛教授介绍了极大规模计算在中国的发展情况,其中包括NSFC、863计划和973计划下高性能计算的发展情况、高性能计算机系统发展所面临的挑战、以及怎样根据已有经验来解决问题。瑞士超算中心主任、苏黎世联邦理工学院 Thomas Schulthess教授介绍了高性能计算在欧洲的发展情况和卢加诺数据中心的最新情况,并详细介绍了CSCS的下一代Cray XC30系统以及瑞士天气预报系统COSMO,他对协同计算提出最大化数据局部性来减少数据移动,从节点架构和算法中提升节点效率等建议。
随后两天的报告围绕领域应用、体系结构、软件、数值算法、大数据与可视化等几个方面展开。其中,国际核聚变7国联合项目美国PI、普林斯顿大学William Tang教授介绍了极大规模PIC聚变能湍流模拟。美国数学学会会士、KAUST的David Keyes教授提出极大规模计算的算法适应性问题,介绍了如何通过预条件设置来减少数据同步和通信,以及基于算法本身的容错方法实现编程模型和运行时库的自适应。阿贡国家实验室E级技术与计算研究所所长的Pete Beckman博士详细介绍了Mira超级计算,从而引出E级计算机的所面临的挑战,从内存层次结构,异构硬件,能耗管理,消息通信,对象I/O,可靠性等方面分析了最新的硬件技术,并介绍了E级操作系统和运行时库Argo 等。国防科学技术大学卢宇彤教授系统介绍了今年新研制成功、目前世界排名第一的天河2号高性能计算机的情况,主要从CPU+MIC的异构系统结构、国产飞腾CPU、网络互连、存储和文件系统、高性能软件环境、大数据软件环境、能耗管理、网络聚合结构、系统管理和系统性能等多个方面进行介绍。同时介绍了它在可扩展性、能耗、可靠性等方面经历的挑战和在天气、计算流体力学、物理、商业情报分析等领域的应用。江南计算所的报告题目是从一个极大规模系统研发者的角度去考虑“通往E级计算机之路”,认为真正的E级计算并不是峰值达到E级而是能实际求解E级规模问题,并提出了能耗、可容错性、异构结构、内存墙、系统软件和应用软件等几个方面的挑战和一些可能的解决方法。
最后,会议组委会委托阿贡国家实验室的Rick Stevens博士、洛斯阿拉莫斯国家实验室的Timothy Germann博士、以及美国数学学会会士David Keyes教授分别就硬件架构、大数据、领域应用、以及算法和软件方面的报告进行了精彩的总结。简报未提及的报告也均已在网站公开 http://www.ncic.ac.cn/codesign/。
关于本次会议的一个有趣的统计显示:单报告的平均计算规模已达到10万CPU核和45万CPU加MIC或GPU核;报告在计算规模上代表了世界超算的现有水平。与会学者高度评价了本次会议,并积极为后续会议提供了意见和建议。
自2010年起,由中国科学院计算技术研究所组织发起的面向百亿亿级计算的协同设计国际研讨会旨在探讨如何在数值算法,体系结构,软件和应用目标之间进行协同设计和协同创新。本年度的(第三届)面向百亿亿级计算的协同设计国际研讨会高端论坛 (Co-Design2013)在广西省桂林市与HPC China大会同期同地举办。与会代表来自中国、美国、欧洲、日本等国家和地区,在计算机软件、硬件、大数据处理、能源、材料、气候、燃烧工程、地球物理等学科领域从事大规模计算与数值模拟交叉学科研究的国际权威学者。