VIS 2019 Best Papers 阅读系列(3/3)

“ 2019年度VIS会议共遴选出3篇最佳论文,可视分析、信息可视化、科学可视化三个领域各1篇,今天阅读科学可视化领域的最佳论文《InSituNet: Deep Image Synthesis for Parameter Space Exploration of Ensemble Simulations》,作者包括俄亥俄州立大学计算机科学与工程系的Wenbin He、Junpeng Wang、Ko-Chih Wang、Han-Wei Shen,以及阿贡国家实验室数学与计算机科学系的Hanqi Guo、Mukund Raj、Youssef S. G. Nashed和Tom Peterka。”

1 发现问题

在处理大规模仿真时,由于I / O和存储限制,普遍采用原位可视化方法,以便在仿真时生成可视化结果。但是,原位可视化方法限制了事后探索的灵活性,因为原始的模拟数据不再可用。尽管已提出了多种基于图像的方法来减轻此限制,但这些方法缺乏探索仿真参数的能力。该论文针对原位可视化组合仿真参数的探索问题开展研究。

相关工作包括基于图像的原位可视化、参数空间探索、可视化深度学习等。

2 研究思路

提出InSituNet,这是一个基于深度学习的替代模型,可为在原位可视化的组合仿真提供参数空间探索支持。此方法利用深度学习的最新进展,可以灵活地探索大型组合仿真的参数空间。

具体来说,将InSituNet设计为卷积回归模型,以学习从“模拟和可视化参数”到“可视化结果”的映射。使用训练好的模型,用户可以在各种可视化设置下为不同的仿真参数生成新图像,从而可以对基础组合仿真进行深入分析。

针对燃烧、宇宙学、海洋模拟等场景,通过定量和定性评估证明InSituNet的有效性。

3 内容概览

论文包括四大核心部分。

3.1 框架概览

此文方法的工作流程如下图所示。包括三个核心模块。

(1)原位可视化,生成图像,形成图像数据库。此过程中包括3类参数:仿真、视觉映射、视图参数。

(2)训练InSituNet。学习从仿真输入到可视化输出之间的端到端映射。

(3)构建交互式可视化界面,浏览与分析参数。包括预测任意参数条件下的可视化结果,研究不同输入参数对可视化结果的敏感性。
在这里插入图片描述

3.2 收集原位训练数据

原位数据收集流程如下图所示。
在这里插入图片描述

3.3 InSituNet的架构与训练

从输入参数预测可视化图像的训练原理,如下图所示。
在这里插入图片描述

3.4 利用InSituNet期待参数空间探索

利用InSituNet进行参数空间探索,如下图所示。
在这里插入图片描述

4 创新点

提出一种深度图像合成模型(即InSituNet),可以对集合模拟进行事后参数空间探索。

设计了交互式视觉界面,用于探索和分析集成仿真的参数。

全面分析了InSituNet的不同超参数的影响,并为InSituNet的其他模拟应用提供了指导。

5 体会

原位可视化能够提升可视化效率,但是参数分析方面不太方便,这是一个需要平衡的难题。

更多数据可视化技术相关文章,欢迎关注微信公众号【数据印像】。
在这里插入图片描述

发布了3 篇原创文章 · 获赞 0 · 访问量 55

猜你喜欢

转载自blog.csdn.net/hhqxxh/article/details/104454462