Skip to content

评测数据 (深度估计)

NYU-Depth V2

#评测指标-RMSE, RMSE Log, δ1, δ2, δ3, Abs Rel, Sq Rel

数据描述:

NYU-Depth V2数据集由来自各种室内场景的视频序列组成,这些视频序列由微软Kinect的RGB和深度相机记录。数据集的采集地点也十分丰富,包含3个城市的464个场景。

数据集构成和规范:

数据量:

数据集分成训练集(35,599),验证集(654),测试集(654)

评测数据量:

评测数据为测试集中的654个测试样例

源数据格式:

原图:jpg格式的RGB图像
深度图:png格式灰度图

源数据集样例:

原图:
原图
深度图:
深度图

论文引用:

@inproceedings{silberman2012indoor,
  title={Indoor segmentation and support inference from rgbd images},
  author={Silberman, Nathan and Hoiem, Derek and Kohli, Pushmeet and Fergus, Rob},
  booktitle={European Conference on Computer Vision},
  pages={746--760},
  year={2012},
  organization={Springer}
}

KITTI Eigen split

#评测指标-RMSE, RMSE Log, δ1, δ2, δ3, Abs Rel, Sq Rel

数据描述:

KITTI数据集由移动车辆的车载摄像机和深度传感器拍摄的几个户外场景组成。本评测数据集采用的是由Eigen等人提出的训练/测试集分配方案。该方案涵盖了“城市”、“住宅”和“道路”类别的56个场景,包括23,158对训练图像对和652张测试图像。

数据集构成和规范:

数据量:

数据集分成训练集(22,506),验证集(652),测试集(652)

评测数据量:

源数据集测试集中的652个测试样例

源数据格式:

原图:png格式的RGB图像
深度图:png格式灰度图

源数据集样例:

原图:
原图
深度图:
深度图

论文引用:

@article{eigen2014depth,
  title={Depth map prediction from a single image using a multi-scale deep network},
  author={Eigen, David and Puhrsch, Christian and Fergus, Rob},
  journal={Advances in neural information processing systems},
  volume={27},
  year={2014}
}

数据集版权使用说明:

TERMS OF USE