语义分割的数据集

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/MOU_IT/article/details/82225505

    目前学术界主要有三个benchmark(数据集)用于模型训练和测试。第一个常用的数据集是Pascal VOC系列。这个系列中目前较流行的是VOC2012,Pascal Context等类似的数据集也有用到。第二个常用的数据集是Microsoft COCO。 COCO一共有80个类别,虽然有很详细的像素级别的标注,但是官方没有专门对语义分割的评测。这个数据集主要用于实例级别的分割(Instance-level Segmentation)以及图片描述Image Caption)。所以COCO数据集往往被当成是额外的训练数据集用于模型的训练。第三个数据集是辅助驾驶(自动驾驶)环境的Cityscapes,使用比较常见的19个类别用于评测。

1、Pascal Voc 2012

    标准的VOC2012数据集有20个类别,包含person, bird, cat, cow, dog, horse, sheep, aeroplane, bicycle, boat, bus, car, motorbike, train, bottle, chair, dining table, potted plant, sofa, tv/monitor这些比较常见的类别。VOC2012中用于分割的图片中,trainval包含2007-2011你那所有对应的图片,test只包含2008-2011年的图片。trainval中有2913张图片,其中1464张用于训练,1449张用于验证,而测试集有1456张图片,测试集的label是不对外公布的,需要将预测的结果上传到Pascal Challenge比赛的测试服务器才可以计算MIoU的值。

2、MS COCO

    COCO(Common Objects in Context)是一个新的图像识别、分割和图像语义数据集,是一个大规模的图像识别、分割、标注数据集。它可以用于多种竞赛,与本领域最相关的是检测部分,因为其一部分是致力于解决分割问题的。该竞赛包含了超过80个类别,提供了超过82783张训练图片,40504张验证图片,以及超过80000张测试图片。特别地,其测试集分为4个不同的子集各20000张:test-dev是用于额外的验证及调试,test-standard是默认的测试数据,用来与其他最优的方法进行对比,test-challenge是竞赛专用,提交到评估服务器上得出评估结果,test-reserve用于避免竞赛过程中的过拟合现象(当一个方法有嫌疑提交过多次或者有嫌疑使用测试数据训练时,其在该部分子集上的测试结果将会被拿来作比较)。由于其规模巨大,目前已非常常用,对领域发展很重要。实际上,该竞赛的结果每年都会在ECCV的研讨会上与ImageNet数据集的结果一起公布。它有如下特点:
  1)Object segmentation
  2)Recognition in Context
  3)Multiple objects per image
  4)More than 300,000 images
  5)More than 2 Million instances
  6)80 object categories
  7)5 captions per image
  8)Keypoints on 100,000 people

  COCO数据集由微软赞助,其对于图像的标注信息不仅有类别、位置信息,还有对图像的语义文本描述,COCO数据集的开源使得近两三年来图像分割语义理解取得了巨大的进展,也几乎成为了图像语义理解算法性能评价的“标准”数据集。

3、Cityscapes

    Cityscapes数据集则是由奔驰主推,提供无人驾驶环境下的图像分割数据集,用于评估视觉算法在城区场景语义理解方面的性能。Cityscapes包含50个欧洲城市不同场景、不同背景、不同季节的街景的30类标注物体,这个数据需要注册账号才能下载。Cityscapes数据集共有finecoarse两套评测标准,前者提供5000张精细标注的图像,后者提供5000张精细标注外加20000张粗糙标注的图像,用PASCAL VOC标准的 intersection-over-union (IoU)得分来对算法性能进行评价。 5000张精细标注的图片分为训练集2975张图片,验证集有500张图片,而测试集有1525张图片,测试集不对外公布,需要将预测结果上传到评估服务器才能计算mIoU值。

4、Pascal-Context

    Pascal-Context数据集是对于PASCAL-VOC 2010识别竞赛的扩展,包含了对所有训练图像的像素级别的标注。共有540个类,包括原有的20个类及由PASCAL VOC分割数据集得来的图片背景,分为三大类,分别是物体、材料以及混合物。虽然种类繁多,但是只有59个常见类是较有意义的。由于其类别服从一个幂律分布,其中有很多类对于整个数据集来说是非常稀疏的。就这点而言,包含这59类的子集常被选作真实类别来对该数据集进行研究,其他类别一律重标为背景。

5、KITTI

    KITTI是用于移动机器人及自动驾驶研究的最受欢迎的数据集之一,包含了由多种形式的传感器得出的数小时的交通场景数据,包括高分辨率RGB、灰度立体摄像机以及三维激光扫描器。尽管很受欢迎,该数据集本身并没有包含真实语义分割标注,但是,众多的研究者手工地为该数据集的部分数据添加标注以满足其问题的需求。Alvarez等人[36,37]为道路检测竞赛中的323张图片生成了真实标注,包含三个类别:道路、垂直面和天空。Zhang等人标注了252张图片,其中140张训练、112张测试,其选自追踪竞赛中的RGB和Velodyne扫描数据,共十个类。Ros等人在视觉测距数据集中标注了170个训练图片和46个测试图片,共11个类。

6、NYUDv2

    NYUDv2是2.5维数据集,它包含1449张由微软Kinect设备捕获的室内的RGB-D图像。其给出密集的像素级别的标注(类别级别和实力级别的均有),训练集795张与测试集654张均有40个室内物体的类[60],该数据集由于其刻画室内场景而格外重要,使得它可以用于某种家庭机器人的训练任务。但是,它相对于其他数据集规模较小,限制了其在深度网络中的应用。

7、SUN-RGBD

    SUNRGBD数据集由四个RGB-D传感器得来,包含10000张RGB-D图像,尺寸与PASCAL VOC一致。该数据集包含了NYU depth v2 [46], Berkeley B3DO [61], 以及SUN3D [47]数据集中的图像,整个数据集均为密集标注,包括多边形、带方向的边界框以及三维空间,适合于场景理解任务。

8、ADE20K_MIT

    ADE20K是一个场景理解的新的数据集,这个数据集是可以免费下载的。它包含150个类别,包括各种物体(比如人、汽车等)、场景(天空、路面等)。它的训练集由20210张场景图片组成,验证集由2000张图片构成,测试集有3352张图片组成。

参考:《A Review on Deep Learning Techniques Applied to Semantic Segmentation》

                   https://www.cnblogs.com/Jie-Liang/archive/2017/06/29/6902375.html

猜你喜欢

转载自blog.csdn.net/MOU_IT/article/details/82225505