本周AI热点回顾:北大给出新冠疫情数据可视化分析、姚班“斩获”AAAI 2020最佳学生论文...

01

北大前沿计算研究中心给出新冠疫情数据可视化分析

此份报告首先从已有数据的可视化来展示疫情传播特点,然后通过建立传染病动力学模型,评估疫情防控措施,提出建议并预警,同时预测疫情疾病走势,给疫情防控决策和大众行为作为参考。

首先考察隔离措施的持续对疫情变化的影响。图1对比了当确诊人数达到峰值后,是否立即取消对密切接触者的隔离对疫情的变化的不同效果。从图1中可以看出,如果立即取消隔离,会大大降低疫情缓解的速度,甚至出现第二个峰值,因此,保持高压防控不动摇,是接下来疫情防控的重中之重

图1 C-SEIR模型预测对比:当疫情达到拐点后是否取消隔离

考虑到各地疫情的新增确诊人数慢慢出现了拐点,研究中心以北京市为例对新增确诊人数进行了拟合,如图3.6所示,采用了乐观(绿色)和保守(蓝线)两组参数来预测。首先新增确诊人数波动较大,因为考虑到上报的延迟可能导致新增确诊病例出现聚集,平均来看可以看到新增确诊病例确实有下降趋势。值得注意的是,新增病例出现拐点并不意味着疫情会马上消退,累计确诊依然会保持增长趋势,疫情的真正缓和由新增确诊的长尾来决定。随着生产活动的逐渐恢复,广大民众应该依然保持防护意识,不能掉以轻心

图2 C-SEIR模型预测曲线(据北京市新增确诊拟合)

为了试图复盘武汉封城这一控疫措施的有效性。这里利用该模型分析了武汉采取封城措施的时间点对疫情变化的影响,参见图3。从中不难看出,在采取隔离等办法的情形下,封城的提前或推迟不会对疫情拐点的到来时刻产生大的影响,但却会造成感染确诊人数的大幅度变化。考虑到现实生活中有限的医疗资源,尽早地实施封城的措施是很有必要的。

图3 C-SEIR模型预测对比:在不同时间点实施封城手段的疫情的影响

基于现有公布的数据,借助于传染病动力学模型,得到下列结论:

1、武汉的封城举措,对于降低病毒感染人数具有重要的意义;

2、自政府采取相关防疫措施以来,全国各省市的病毒传染率均得到了较好的控制;

3、对疑似感染者的隔离观察是疫情防控的重要手段;

4、即使部分地区疫情似乎出现了拐点,但控疫思维和手段不可松懈,要避免二次高峰。

更多的数据和可视化会持续在:

https://github.com/NCP-VIS中更新

信息来源:PKU VisualComputingAndLearning

02

清华姚班“斩获”AAAI 2020最佳学生论文,攻坚算法博弈研究

第34届美国人工智能协会年会AAAI 2020现场,又一重要奖项揭晓。最佳学生论文奖,颁向《可分割与不可分割商品混合情况下的公平分配》(Fair Division of Mixed Divisible and Indivisible Goods)。

论文作者:李子豪、贝小辉,都出自清华姚班。贝小辉是姚班首届弟子,楼天城和鬲融的同班同学。而李子豪更是姚班2016级本科生——目前在读。

这篇获得最佳学生论文奖的论文,研究了当资源同时包含可分割商品及不可分割商品时的公平分配问题。公平分配问题是博弈论与算法博弈论的经典问题。是指为若干个分配者分配有限数量的资源时的博弈。当资源为一种物质又可分割时,分配将会很容易进行。但资源种类复杂、不可分,而分配者的喜好各不相同时,分配将会难以进行。比如将17头品种不同的活牛分给3个人。

基于传统无嫉妒性(envy-freeness,EF)与单一商品的无嫉妒性(envy-freeness up to one good, EF1)的经典公平问题概念,研究者提出了一个在可分割与不可分割混合情况下更为有意义的公平性质,即混合商品的无嫉妒性(envy-freeness for mixed goods, EFM)。

以往的研究主要都是单独考虑可分或不可分情况下的公平分配的问题,而缺少对于两种商品混合情况下的公平分配的研究,该研究成果将EF和EF1都推广到了混合环境中。研究人员证明了,对于任意数量的智能体(agents)而言,满足EFM性质的分配一定存在,并提出了一个有效算法,以计算2个智能体和n个智能体的EFM分配问题,并对可分割商品进行分段化线性评估。

论文第一作者贝小辉,现在是新加坡南洋理工大学助理教授,但他还有另外一个身份:清华姚班2008届校友,也是姚班的开山弟子。

论文地址:
https://arxiv.org/pdf/1911.07048.pdf

信息来源:量子位

03

Yann LeCun押宝,AI或突破常识瓶颈

AAAI 2020的一大亮点是主办方特邀图灵奖获得者、深度学习三巨头Geoffrey Hinton、Yann LeCun、Yoshua Bengio同台,分享各自最新研究成果。三位一致表示深度学习可以克服诸如对抗性示例之类的障碍,甚至可能获得常识。

Facebook人工智能总监、图灵奖得主Yann LeCun在AAAI 2020推广他的自监督学习概念。

这位被誉为卷积神经之父的图灵奖得主,对自监督学习给予了深厚的希望以及非常坚实的肯定。

他认为自监督学习因为更接近人类的学习程序,能够突破现有深度学习的局限。

目前被广泛使用的监督学习,对人工标记的依赖性交大,不仅耗时耗力,且无法完全保证人工标记过程中准确性的问题。另外,机器只能根据已标记的特征学习。

Yann LeCun认为自监督学习是克服上述问题的有效解决方案。自监督学习通过构建一个庞大的神经网络,透过预测来认识世界。这一点就非常类似于我们人类的学习过程,不断透过已知部分预测未知。

Yann LeCun认为现今的深度学习方法,虽然在自动驾驶、语言翻译、聊天机器人等方面取得进展,却无法创造出“真正的”人工智能。 他所谓的“真正的”人工智能,是具备常识、聪明、敏捷且灵活的机器人。他认为更接近人类学习行为的自监督学习方法,将会是实现这个宏远的第一步。

信息来源:新智元

04

特朗普拟削减美国基础科研预算,但加大AI和量子领域投资

特朗普总统周一提议,削减除了人工智能和量子技术等关键领域外的联邦研究经费,Wired评价该预算要求简直就在用赌博的方式为美国创新提供资金,将赌注押在某些关键领域。

总统提议削减政府几乎所有部门的研究经费,包括减少美国国家科学基金会的4.24亿美元,国防部的47亿美元和能源部的32亿美元。但预算全部集中在AI和量子方面,并提议将美国国家科学基金会,美国国立卫生研究院,能源部,Darpa和美国国防部联合AI中心等部门的拨款提高一倍。

Rasser表示,很高兴看到为AI和量子增长提议的资金,因为两者都是关键的新兴领域。他最近与其他研究人员合著了一份报告,呼吁政府为人工智能投入更多资金,并指出该技术可以像软件一样改变行业。人工智能和量子技术已经成为中美共同投入巨大资金的领域,且都在被应用于国防领域。

人工智能已经成为一种强大的技术,大型科技公司投入了数十亿美元用于其开发,并利用它来构建从无人驾驶汽车到语音助手的生态。尽管量子计算和通信技术有潜力在某一天带来同样巨大的回报,但它远未得到证实。例如,互联网的量子版本应保证完美的安全性,而量子计算机则可以相对轻松地解决目前无法解决的问题。

在特朗普上任期间,人工智能和量子技术已成为人们越来越关注的领域。总统于2019年2月发起了美国AI计划,概述了AI领导力的国家战略,并于2018年12月将《国家量子倡议法案》签署为法律,从而增加了对量子计算和通信的资金投入。

信息来源:新智元

05

170亿参数加持,微软发布史上最大Transformer模型

BERT和GPT-2之类的深度学习语言模型(language model, LM)有数十亿的参数,互联网上几乎所有的文本都已经参与了该模型的训练,它们提升了几乎所有自然语言处理(NLP)任务的技术水平,包括问题解答、对话机器人和文档理解等。

更好的自然语言生成模型可以在多种应用程序中实现自如的转化,例如协助作者撰写内容,汇总一长段文本来节省时间,或改善自动客服助理的用户体验。基于使用更大自然语言模型可以带来更好结果的趋势,微软推出了Turing自然语言生成(T-NLG)模型,这是有史以来规模最大的模型,其参数有170亿,在各种语言模型任务的基准上均优于最新技术,并且在应用于许多实际任务(包括概括和问题解答)时也很出色。这项工作得益于在DeepSpeed库(与PyTorch兼容)的ZeRO优化器方面的突破。

 

T-NLG是一个基于Transformer的生成语言模型,这意味着它可以生成单词来完成开放式的文本任务。除了补充未完成的句子外,它还可以生成问题的答案和文档的摘要。

 

T-NLG之类的生成模型对于NLP任务很重要,因为我们的目标是在任何情况下都尽可能与人类直接,准确和流畅地问答。以前,问题解答和概要系统是依赖于从文档中提取现有内容,把这些内容用作备用答案或摘要,但它们通常看起来不自然或不连贯。借助T-NLG模型,就可以很自然的总结或回答有关个人文档或电子邮件主题的问题。

 

原文链接:

https://www.microsoft.com/en-us/research/blog/turing-nlg-a-17-billion-parameter-language-model-by-microsoft/

信息来源:机器学习研究会

06

DeepSnake—浙大提出实例分割新方法, 准确高速获取物体边缘轮廓

实例分割是计算机视觉领域重要任务,广泛应用于自动驾驶、视频分析、图像操作和机器人抓取等领域。但目前大多数方法都是基于逐像素的分割计算,这种类方法不仅会受到bbox不精确的影响,同时还会在后处理过程中耗费庞大的计算量。而基于轮廓的实例分割方法不会受到bbox的限制,并且含有更少的参数量,但已有基于轮廓方法无法完整地探索轮廓的空间拓扑结构,并且大多基于人工优化函数来进行计算。

为了充分探索基于轮廓的实例分割方法,来自浙江大学的研究人员对snake方法进行了有效的改进,通过引入圆卷积结构处理输入轮廓顶点,并基于学习到的特征得到每个顶点需要调整的偏移量以尽可能地准确包围实例,而后通过迭代得到更为精确的轮廓结果。实验表明这种方法可以更加迅速准确地进行实例分割。

在给定初始轮廓的前提下算法抽取每个顶点的图像特征,由于轮廓可视为一个圆形图结构,可以使用圆卷积来获取轮廓特征。上图中的蓝色、黄色和绿色节点分别表示了输入特征、卷积核以及输出特征。最终回归出每个顶点处的偏移量从而调整轮廓逼近目标的边界。

DeepSnake的主要功能是通过深度学习给出输入初始轮廓顶点需要调整的偏移量,以得到更为准确的实例分割结果。在对基于轮廓的实例分割方法研究过程中,发现物体的轮廓其实是一个圆形的图结构,其中每个顶点都有两条边连接相邻的顶点,这意味着可以利用一维卷积来对顶点特征进行学习。由于闭合的轮廓可以视为周期性结构,于是研究人员引入了圆卷积来处理。与通常的图卷积方法不同,圆卷积核不仅可以编码每个顶点的特征还能编码临近顶点间的关系,具有更强的表达能力。


传统的snake算法将轮廓的顶点坐标视为一系列变量,并优化这些变量的能量函数来迭代顶点坐标。通过有效的能量函数设计,理论上可以将轮廓优化到目标边界上。但由于基于手工设计的能量函数一般都是非凸的,轮廓的优化过程易于陷入居于最优解。与之不同的是,DeepSnake则直接从数据中学习出目标的边界轮廓。对于包含N个顶点的轮廓{xi | i=1,…,N},首先为每个顶点建立特征矢量。这一特征矢量为fi=[F(xi); x’i ],其中前半部为基于CNN从输入图像上学习到的特征图,而后一个则是通过变换后得到的旋转不变坐标。

与各种先进的算法相比,基于DeepSnake的分割算法显示出了良好的性能优势:

如果想要了解这一算法的细节实现和圆卷积的细节,请参看论文:
https://arxiv.org/pdf/2001.01629v1.pdf

信息来源:将门创投

07

本周论文推荐

A Comprehensive Survey on Transfer Learning(迁移学习)

作者Fuzhen Zhuang, Zhiyuan Qi, Keyu Duan, Dongbo Xi, Yongchun Zhu, Hengshu Zhu, Senior Member, IEEE, Hui Xiong, Senior Member, IEEE, and Qing He

论文概要:迁移学习的目的是通过迁移包含在不同但相关的源域中的知识来提高目标学习者在目标域上的学习表现。这样,可以减少对大量目标域数据的依赖,以构建目标学习者。由于其广泛的应用前景,迁移学习已经成为机器学习中一个热门和有前途的领域。虽然已经有一些关于迁移学习的有价值的和令人印象深刻的综述,但这些综述介绍的方法相对孤立,缺乏迁移学习的最新进展。随着迁移学习领域的迅速扩大,对相关研究进行全面的回顾既有必要也有挑战。本文试图将已有的迁移学习研究进行梳理使其系统化,并对迁移学习的机制和策略进行全面的归纳和解读,帮助读者更好地了解当前的研究现状和思路。与以往的文章不同,本文从数据和模型的角度对40多种具有代表性的迁移学习方法进行了综述。还简要介绍了迁移学习的应用。为了展示不同迁移学习模型的性能,我们使用了20种有代表性的迁移学习模型进行实验。这些模型是在三个不同的数据集上执行的,即Amazon Reviews,Reuters-21578和Office-31。实验结果表明,在实际应用中选择合适的迁移学习模型是非常重要的。

论文地址

https://arxiv.org/abs/1911.02685

发布了456 篇原创文章 · 获赞 56 · 访问量 15万+

猜你喜欢

转载自blog.csdn.net/PaddlePaddle/article/details/104352086