NeuroFluid: 流体仿真的人工智能新范式

点击蓝字

55b3dc64f255a2abf492ff7afcc34387.jpeg

关注我们

AI TIME欢迎每一位AI爱好者的加入!

内容来自上海交通大学人工智能研究院

AI TIME&上海交通大学首期专场活动,我们邀请了上海交通大学人工智能研究院助理教授王韫博老师,分享世界模型的两方面研究。点击文末“阅读原文”即可查看精彩视频回放。

近日,上海交通大学人工智能研究院杨小康教授、王韫博助理教授指导的AI+Science研究团队的成果《NeuroFluid: Fluid Dynamics Grounding with Particle-Driven Neural Radiance Fields》被国际顶级机器学习会议ICML 2022收录。论文所提出的“神经流体(NeuroFluid)”模型,利用基于神经隐式场的人工智能可微渲染技术,将流体物理仿真看作求解流体场景三维渲染问题的逆问题——从流体场景的一段多视角表观图像中,即可反推出流体内部的运动规律。这项成果为计算流体动力学、多粒子动力学系统研究开辟了一种人工智能新途径。

论文链接: 

arxiv.org/pdf/2203.01762.pdf

代码地址: 

github.com/syguan96/NeuroFluid

项目主页: 

syguan96.github.io/NeuroFluid/

  ●  ●  ●  ●  ●  ●  ● 

48ef7cf88f92089fc7ebad55f4073e72.gif

图1. NeuroFluid从流体的视觉观测中反演其物理动态

流体运动研究是重要的自然科学基础研究领域,在航空航天、大气、海洋、航运、能源、建筑、环境等众多领域有着广泛应用。在传统研究方法中,求解流体运动(例如速度场)需要首先在理论上精确刻画流体的动力学模型,并结合微分方程、数值分析对模型求解。但是通常对于复杂问题(例如湍流),人们很难用数学物理方程进行描述,复杂流体的Navier-Stokes方程是世界级千禧难题,至今依然没被很好解决。现有基于深度学习的方法通常从拉格朗日视角描述流体,即流体被看作由许多粒子组成,通过测定和约束每个粒子的运动即可测定和改变流体的运动。但是大多数方法通常要求已知流体的物理属性(例如粘性),并且需要粒子的运动信息(位置和速度)作为训练数据,这在真实场景中几乎不太可能。

针对流体力学模型难以刻画和求解的问题,本文提出一种名为NeuroFluid的神经网络方法,实现流体动态反演(fluid dynamics grounding),即根据稀疏视角下对流体的2D表观视觉观察,推断推流体内在的3D物理运动状态,例如粒子的速度和位置等。如图2所示,NeuroFluid包含基于神经网络的流体粒子状态转移模型(Particle Transition Model)和由粒子驱动的神经网络渲染器(PhysNeRF),并将二者整合到一个端到端的联合优化框架中。优化过程包含三个阶段:

1. 模拟:粒子状态转移模型根据初始状态(可用立体视觉方法粗估)预测流体粒子在后续时刻的运动轨迹;

2. 渲染:神经网络渲染器PhysNeRF(图2右)根据粒子的几何信息将模拟结果渲染成图像;

3. 比对:渲染图像和真实图像比对,计算误差,通过梯度反向传递优化模型参数。

014f38621290fbd421a17bd6aaaaf581.png

图2. NeuroFluid的训练过程(图左)及PhysNeRF的渲染示意(图右)

本文使用的流体数据(HoneyCone、WaterCube、WaterSphere)具有不同的物理属性(如密度、粘度、颜色)或初始状态(如流体粒子位置、整体形态)。

下列的实验从粒子动态反演、未来状态预测、新视角图像渲染、PhysNeRF域外场景泛化,验证了NeuroFluid的有效性。

1

实验1:流体粒子动态反演

本实验计算从图像反演的粒子位置与真实粒子位置之间的距离误差(Pred2GT distance),作为评价指标。图3展示了NeuroFluid与流体粒子预测的有监督方法DLF[1]的数值结果对比,显然,NeuroFluid从视频中反演的流体粒子状态比DLF(用粒子运动速度和位置作为训练数据)更准确。图4对模型的粒子状态推断结果做了可视化,注意到随着时间的推移,NeuroFluid相比基线模型,其反演结果运动更加自然,能更好地匹配真实流体动态。

9d608d0c79328077046149e13bbdafb9.png

图3. NeuroFluid(浅蓝色)在三个测试集上关于流体粒子位置的反演结果,相比流体粒子仿真的有监督模型DLF,NeuroFluid从图像推理流体内部状态,明显具有更好的准确性

d292c3659887f2c50a6fa0a445d873d0.png

图4. NeuroFluid(第三行)在WaterCube场景中对流体粒子位置的推断结果,图中第一行为生成对应观测图像序列时所使用的“真实”流体粒子位置

2

实验2:流体未来状态预测

在有效学习了流体的粒子状态转移模型后,可以很方便地实现预测流体在未来时刻的运动状态。如图5所示,本实验评估未来十个时刻内,模型预测的粒子位置与真实情况的误差。结果表明,NeuroFluid能够通过视觉观测学习流体运动的规律,推演合理的流体未来动态。

c3573cef2eb150cdd5d997d6418da6b2.png

图5. 流体未来状态预测误差。其中,DLF*表示将基线模型在与测试场景物理属性相近的数据上进行微调;DLF+表示将基线模型直接在测试场景上进行微调

3

实验3:流体场景的新视角图像渲染

为了验证PhysNeRF渲染器的有效性,本实验在新视角合成(novel view synthesis)的任务上,广泛对比了各种基于神经隐式场的可微渲染技术,包括NeRF[2],NeRT-T (即NeRF+Time Index), D-NeRF[3]和Li et al. (2022)[4]等。如图6所示,在输入了粒子几何信息的情况下,NeuroFluid的渲染结果不仅在动态上与目标结果的匹配度最高,而且可以更好地渲染出流体的细节(如溅起的水珠)。

28555b060cfdf80d7bb6b5337c7a790d.png

图6. 新视角合成结果对比,左起第一列为新视角下的目标图像

4

实验4:  域外场景泛化

PhysNeRF的基本假设是流体图像渲染应以粒子状态为驱动,故而应具有不同粒子分布下的强大泛化能力。为验证其泛化能力,本实验在使用有限的场景训练好PhysNeRF渲染器后,在测试时改变了流体的初始形貌,如图7所示,该几何形状为计算机图形学经典的Stanford Bunny。值得注意的是,在没有用Stanford Bunny数据对模型进行训练微调的情况下,PhysNeRF较为精细地渲染出了流体的表面细节。

83ad3fe77b5cda1c0954a49579d68a45.png

图7. PhysNeRF在域外流体场景(训练所未见)上的泛化效果

总结:上海交通大学AI+Science研究团队所提出的NeuroFluid模型能成功拟合符合视觉观测的流体运动转移规律,从视觉表观观测反演流体内在运动,有望为传统流体力学无法准确刻画的复杂流体运动(如湍流)提供一种全新的计算范式。

论文作者

 fac485d542c0d042e9ac513b8b5577db.png

官善琰

上海交通大学2017级直博生,本科毕业于西安电子科技大学电子信息工程专业。主要研究兴趣为人体重建与驱动、隐式神经渲染。

 647ab80d91f074a8a862a0a3527d7b73.png

邓画予

上海交通大学2018级IEEE试点班计算机科学与技术方向本科生,2022级计算机系直博生。主要研究方向为深度学习,隐式神经渲染。

 44a3df191c8f67b27c240d0ca243193a.png

王韫博(通讯作者)

上海交通大学人工智能研究院助理教授。主要研究方向为预测学习、自监督学习、有模型强化学习。近三年在NeurIPS、ICML、TPAMI等CCF-A类会议与期刊上发表论文十余篇。

 6eb34083c6de260841c5be049c07b5e4.png

杨小康

上海交通大学人工智能研究院常务副院长,长江学者特聘教授、国家杰出青年科学基金获得者、IEEE Fellow。主要研究图像处理与机器学习,获国家科技进步二等奖、中国电子学会自然科学一等奖、上海市科技进步一等奖、国家研究生教育成果二等奖。任上海市图像图形学会理事长、教育部人工智能科技创新专家组委员、IEEE TMM 编委。

参考文献:

[1] Ummenhofer, Benjamin, et al. Lagrangian fluid simulation with continuous convolutions. In ICLR, 2019.

[2] Mildenhall, Ben, et al. NeRF: Representing scenes as neural radiance fields for view synthesis. In ECCV,2020.

[3] Pumarola, Albert, et al. D-NeRF: Neural radiance fields for dynamic scenes. In CVPR, 2021.

[4] Li, Yunzhu, et al. 3D neural scene representations for visuomotor control. In CoRL, 2022.

往期精彩文章推荐

3cac0cabf7b2b039b0bb2680faf3c0e0.jpeg

记得关注我们呀!每天都有新知识!

 关于AI TIME 

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。

迄今为止,AI TIME已经邀请了1000多位海内外讲者,举办了逾500场活动,超500万人次观看。

7a4def56c35745b45c93fa9e484567d4.png

我知道你

在看

~

ea298e040681dd067572a7bb97ae1fd9.gif

点击 阅读原文 查看回放

猜你喜欢

转载自blog.csdn.net/AITIME_HY/article/details/129722671
今日推荐