视频行为分析数据库总结

1、为了解决视角不变问题,法国国家信息与自动化研究所(French Institute for Research in Computer
Science and Automation,INRIA)和中国科学院自动化研究所(Institute of Automation,Chinese Academy of Sciences,CASIA)
等一些研究机构发布了多视角的行为数据,如IXMAS Actions数据库、CASIA行为数据库。
地址:http://www.cbsr.ia.ac.cn/china/Gait%20Databases%20CH.asp

2、2008-2009年,(网络视频)很多真实场景下的行为数据库被发布,如:Hollywood、UCF Sports、UCF YouTube等

3、模仿真实场景(考虑复杂的运动背景)构建了诸如MSR Actions和Collective Activity Data等

4、2009年开始,以ImageNet图像库为代表的超大规模数据库出现。
    Hollywood2在原有Hollywood基础上将行为类别从8类提升为12类,视频样本从430增加到2859个
    
5、美国中弗罗里达大学(UCF)计算机视觉研究中心将UCF Sports,UCF YouTube等一些数据库融合扩展,构成了一个50类
共6680个视频片段的UCF50行为数据库,不久之后,UCF101行为数据库应运而生。

6、布朗大学的SERRE实验室构建了包含51类行为共6849个视频片段的HMDB行为数据库

7、英国Kingston大学和西弗吉尼亚大学发布多视角行为数据库采用8个视角的摄像机同时对一个行为进行拍摄,
行为类别从IXMAS Actions的13类增加到17类。

8、2010年发布监控场景下的UT-Interaction数据库,其研究内容是多个目标之间的交互行为。

9、MSR先后发布了MSR Action 3D和MSR Daily Activity 3D行为数据库。这两个数据库利用KinectRGB-D传感器获取处彩色图像意外的人体
深度图像序列,利用Kinect采集深度数据可获取较为精准的人体关节点骨架序列,为深入研究人体的运动模式提供了很好的研究数据。

10、美国西北大学和加州大学洛杉矶分校则将深度、骨架和多视角数据融合在一起构建了Northwestern-UCLA Mutiview Action 3D数据库

11、为了更好的研究人体运动过程中各关节点的运动规律,CMU Graphics Lab利用8个红外摄像头对带有41个标记点的人体进行了重构,
更为精确地估计出人体的骨架结构,并发布CMU Motion Capture行为数据库。

12、第一人称视角下的Activities of Daily Living(ADL) Dataset和佐治亚理工发布的First-Person Social Interactions数据库。

1、人群异常事件检测视频数据库:UCSD数据库、UMN数据库、subway surveillance数据库等

2、PET2009数据库
    http://www.cvg.reading.ac.uk/PETS2009/data.html

参考文献:
        单言虎,张彰,黄凯奇,人的视觉行为识别研究回顾、现状及展望[J]
        黄凯奇,任志强,谭铁牛,图像物体分类与检测算法综述[J]

猜你喜欢

转载自my.oschina.net/u/3702502/blog/1627044