我们提供了 MIT DriveSeg 数据集,这是一个大规模的驾驶场景分割数据集,为 5,000 个视频帧中的每个像素和每个像素都进行了密集注释。这个数据集是一个面向前的逐帧像素级语义标记数据集,该数据集是在连续白天驾驶通过拥挤的城市街道时从移动的车辆捕获的。该数据集的目的是允许探索时间动态信息的价值,以便在动态的真实操作环境中进行全场景分割。
数据集介绍: 本文从流行的好莱坞电影中自动收集了5003个图像数据集。这些图像是通过在30部电影的每10帧上运行一个最先进的人检测器获得的。 Please cite as Sapp, Benjamin and Ben Taskar. "MODEC: MultimOdal DEComposable Models for Human Pose Estimation." In Proc. CVPR
关于 Github 上的 1000 个最受欢迎的关键字存储库的详尽数据 数据在 JSON 文件中。每个文件都有根据文件名本身提到的搜索词出现的前 1000 个repositories。这些是对应于文件中每个对象的键{'created':'description':'forks':'fullname':'id':'language':'open issues': 'repo name':'sta
该数据集由 Carla 驾驶模拟器生成的图像组成。 训练图像是由安装在模拟车辆中的行车记录仪捕获的图像。 标签图像是分割掩码。 标签图像将每个像素分类为:左侧车道边界的和右侧车道边界。与该数据集相关的挑战是训练一个能够准确预测验证数据集的分割掩码的模型。