数据集介绍: 这24个数据集是由潘广汉、孙天生、托比·威德和丹尼尔·沙尔斯坦在2019-2021期间创建的。数据集包括11个场景,在许多不同的照明条件和曝光(包括移动设备的闪光灯和“手电筒”照明)下,从1-3个不同的观看方向成像。 References: [1] D. Scharstein and R. Szeliski. A taxonomy and evaluation of
数据集介绍:
这24个数据集是由潘广汉、孙天生、托比·威德和丹尼尔·沙尔斯坦在2019-2021期间创建的。数据集包括11个场景,在许多不同的照明条件和曝光(包括移动设备的闪光灯和“手电筒”照明)下,从1-3个不同的观看方向成像。
References:
[1] |
D. Scharstein and R. Szeliski. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms. International Journal of Computer Vision, 47(1/2/3):7-42, April-June 2002. |
[2] |
D. Scharstein and R. Szeliski. High-accuracy stereo depth maps using structured light. In IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2003), volume 1, pages 195-202, Madison, WI, June 2003. |
[3] |
D. Scharstein and C. Pal. Learning conditional random fields for stereo. In IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2007), Minneapolis, MN, June 2007. |
[4] |
H. Hirschmüller and D. Scharstein. Evaluation of cost functions for stereo matching. In IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2007), Minneapolis, MN, June 2007. |
[5] |
D. Scharstein, H. Hirschmüller, Y. Kitajima, G. Krathwohl, N. Nesic, X. Wang, and P. Westling. High-resolution stereo datasets with subpixel-accurate ground truth. In German Conference on Pattern Recognition (GCPR 2014), Münster, Germany, September 2014. |
Papers With Code highlights trending Machine Learning research and the code to implement it.
The most popular research, guides, news and more in artificial intelligence
GitHub is where over 94 million developers shape the future of software, together. Contribute to the open source community, manage your Git repositories, review code like a pro, track bugs and features, power your CI/CD and DevOps workflows, and secure code before you commit it.
由 Daniel Scharstein 和 Richard Szeliski 及其他研究人员维护。Middlebury Stereo Vision Page 主要提供立体匹配算法的在线评价和数据下载服务。它由《A taxonomy and evaluation of dense two-frame stereo correspondence algor...
Stereo dataset1.Middlebury Stereo(室内场景, 几十对, 分辨率高)2.KITTI(室外驾驶场景, 200对)3.ETH3D(27 training and 20 test frames)4.InStereo2K(室内场景, 2000 training and 50 test frames)...
到目前为止,我已经通过4篇文章带你理解了传统立体匹配的基本原理和解决各种问题的经典思路。如果你还有疑惑,可以先回顾下面这4篇文章: 70. 三维重建5-立体匹配171. 三维重建6-立体匹配272. 三维重建7-立体匹配3…
最近在做立体视觉,对算法进行匹配准确率的检测时找到了MiddleBury[ ]这个工具。
双目立体匹配测试数据集MiddleburyStereoDatasets,包含MiddleburyMiddleBuryStereo
1.1 2001 Stereo datasets with ground truth
2001 Stereo datasets 由 Daniel Scharstein, Padma Ugbabe, and Rick Szeliski创建。每套子集包含9张图像(im0.ppm - im8.ppm) 和对应 images 2 和 6 的实际真值视差图(disp2.pgm anddisp6.pgm)。也就是说,9张图像是沿水平线的序列,其中 im2.ppm 为左视图,im6.ppm 为右视图,disp2.pgm为左视差图,disp6.pgm为右视差图。
每个实际真值视差图中每个点的视差值被放大了8倍。举例说明,在disp2.pgm中某点的值为100,意味着im2.ppm(左图)中的该位置的像素点和与之对应的im6.ppm(右图)中的像素点的水平像素距离为12.5。
1.2 2003 Stereo datasets with ground truth
2003 Stereo datasets 由Daniel Scharstein, Alexander Vandenberg-Rodes, 和 Rick Szeliski 创建。它包含高分辨率的双目图像序列,以及精确到像素水平的实际真值视差图。实际真值视差图由结构光这种新技术采集获得,因而不需要矫正光照映射。
数据集介绍: 由于具有强大的三维信息捕捉能力,光场数据为显著性检测算法提供了更为有力的支持。但算法的能力取决于数据集构建的全面性、有效性、规模化和多样性,同时也取决于灵活高效的模型设计。为了促进这一领域的发展,来自大连理工的研究人员构建了大规模的多功能数据集,其中包含了102类目标、共4202个样本,可以有效支持基于RGB、RGB-D和光场数据的显著性检测算法。
该数据集是麻省理工学院提供的原始数据。室内场景识别是高层次视觉中一个具有挑战性的开放性问题。 大多数适用于室外场景的场景识别模型在室内领域表现不佳。主要困难在于,虽然一些室内场景(例如走廊)可以通过全局空间属性很好地表征,但其他的(例如书店)可以通过它们包含的对象更好地表征。 更一般地说,为了解决室内场景识别问题,我们需要一个可以利用局部和全局判别信息的模型。 该数据库包含 67 个室内类别,
海水水质监测数据提供2017,2018,2019,2020,2021,2022年渤海、黄海、东海、南海等海域水质信息,包含海区,省份,地市,点位编码,实测经度,实测纬度,监测时间,pH,溶解氧,化学需氧量,无机氮,活性磷酸盐,石油类,水质类别等信息
DescriptionAI-TOD 在 28,036 张航拍图像中包含 8 个类别的 700,621 个对象实例。 与现有航拍图像中的目标检测数据集相比,AI-TOD 中目标的平均大小约为 12.8 像素,远小于其他数据集。CitationIf you use this dataset in your research, please cite these papers.@inproceeding