三篇ICLR2022与时间图序列相关的研究工作

时序图学习研究多了||三篇ICLR与时间图序列相关的研究工作

1. 时空图神经网络

title: Space-Time Graph Neural Networks

作者:Samar Hadou, Charilaos I Kanatsoulis, Alejandro Ribeiro

关键词:ST-GNNs, GNNs, stability, graph-time perturbations

主要内容

本文引入了时空图神经网络 (ST-GNN),这是一种新颖的 GNN 架构,专门用于处理时变网络数据的时空拓扑。作者提出的基础是时间和图卷积滤波器的组合,然后是逐点非线性激活函数。

具体来说,作者引入了卷积算子的通用定义,它模拟了信号在其底层支持上的扩散过程。在这个定义之上,作者提出了时空图卷积,它建立在时间和图移位算子的组合之上。同时证明了具有多元积分 Lipschitz 滤波器的 ST-GNN 对于底层图中的小扰动以及由时间扭曲引起的时域小扰动是稳定的。分析表明,网络拓扑和系统时间演化的微小变化不会显着影响 ST-GNN 的性能。分散控制系统的数值实验展示了所提出的 ST-GNN 的有效性和稳定性。

本文的稳定性分析非常的有意思。

2. TAMP-S2GCNets:将时间感知多持久性知识表示与空间超图卷积网络耦合用于时间序列预测

title:TAMP-S2GCNets: Coupling Time-Aware Multipersistence Knowledge Representation with Spatio-Supra Graph Convolutional Networks for Time-Series Forecasting

作者:Yuzhou Chen, Ignacio Segovia-Dominguez, Baris Coskunuzer, Yulia Gel

81249c6f1da58882ef8ec33de2422faf.png

图 1:TAMP-S2GCNets 由 5 个组件组成:(I) Gt 上的空间图卷积层在时间 t 提取空间信息(参见公式 5)。(II) 特征变换 (FT) 在大小为 T 的滑动窗口上学习时空数据 X T 的表示(参见公式 1)。(III) Supragraph 卷积模块捕获 X T 中的联合时空依赖性(参见公式 4)。(IV) DEPSRL 模块的详细架构(参见方程 6 和 7),其中具有不同类型多重过滤的 DEPS 可以通过 CNN 基础模型和全局池化机制来学习。在这里,DEPS 允许跨多个几何维度和跨时间学习内在图结构。(V) 将学习到的时空依赖项传递到 GRU 层(参见公式 8)以进行多步预测。整个模型可以以端到端的方式进行训练

图神经网络 (GNN) 被证明是一种强大的机器,用于学习多元时空过程中的复杂依赖关系。然而,大多数现有的 GNN 具有固有的静态架构,因此,没有明确考虑编码知识的时间依赖性,并且在同时推断实体之间潜在的时间条件关系的能力方面受到限制。作者假设这种隐藏的时间条件属性可以被多重持久性工具捕获,即拓扑数据分析中的一种新兴机制,它允许我们沿着多个几何维度「量化数据形状的动态」。作者迈出了整合两个新兴研究方向的第一步,即时间感知和多持久性,并提出了一种新模型,时间感知多持久性空间-超图卷积网络(TAMP-S2GCNets)。作者将数据固有的时间条件拓扑特性总结为时间感知的多持久性 Euler-Poincar'e 曲面,并证明其稳定性。然后,构建了一个超图卷积模块,该模块同时解释了数据中提取的时空内和时空间依赖关系。作者对高速公路交通流量、以太坊代币价格和 COVID-19 住院人数的广泛实验表明,TAMP-S2GCNets 在多元时间序列预测任务中优于最先进的工具。一句话总结:作者时间感知深度学习和多参数持久性,使其能够在多元时间序列预测任务中推断实体之间潜在的时间条件关系。

本文题目超长,主要的点在于结合目前时间序列研究的两个重要方式,分别是time-aware learning paradigm和multiparameter persistence

3. Back2Future:利用回填动态改进未来的实时预测

Title: Back2Future: Leveraging Backfill Dynamics for Improving Real-time Predictions in Future

作者:Harshavardhan Kamarthi, Alexander Rodríguez, B. Aditya Prakash

对于公共卫生和宏观经济学等领域的实时预测,数据收集是一项艰巨且艰巨的任务。通常在最初发布后,它会在以后经历多次修订(可能是由于人为或技术限制)——因此,数据可能需要数周时间才能达到稳定值。这种所谓的“回填”现象及其对模型性能的影响在先前的文献中几乎没有得到解决。在本文中,作者以 COVID-19 为例介绍了多变量回填问题。构建了一个由过去一年大流行的相关信号组成的详细数据集。然后,系统地描述了回填动力学中的几种模式,并利用观察来制定一个新的问题和神经框架 Back2Future,该框架旨在实时改进给定模型的预测。广泛的实验表明,提出的方法改进了用于 COVID-19 预测和 GDP 增长预测的各种顶级模型的性能。具体来说,Back2Future 将顶级 COVID-19 模型改进了 6.65% 至 11.24%,并比非平凡基线提高了 18%。因此,政策制定者可以更好地了解实时预测模型的真实准确性。

作者处理了修改以前记录的数据及其对时间序列预测的影响的问题。他们展示了过去数据的修正(量化为回填误差)如何在预测中引入相当大的误差。为此,他们提出了一种新颖的深度学习方法 Back2Future,该方法使用回填动力学来改进模型预测。他们在真实的 COVID 数据集上展示了它的效率。大家可以刷一波COVID数据了

推荐阅读:

我的2022届互联网校招分享

我的2021总结

浅谈算法岗和开发岗的区别

互联网校招研发薪资汇总

2022届互联网求职现状,金9银10快变成铜9铁10!!

公众号:AI蜗牛车

保持谦逊、保持自律、保持进步

0cccf2b01666efcf296a9a339488dcdb.png

发送【蜗牛】获取一份《手把手AI项目》(AI蜗牛车著)

发送【1222】获取一份不错的leetcode刷题笔记

发送【AI四大名著】获取四本经典AI电子书

猜你喜欢

转载自blog.csdn.net/qq_33431368/article/details/125419044
今日推荐