数据集介绍: 数据来自 Lytro Illum,捕获为 40MP 图像,然后转换为 5MP RGB+D 图像。 第二个数据集来自 Lenovo Phab2(Project Tango),它利用双图像传感器重新创建大型 3D 结构的点云。这些以 .ply 和 .obj 数据集的形式提供
UCB的全天候全光照大型数据集,包含1,100小时的HD录像、GPS/IMU、时间戳信息,100,000张图片的2D bounding box标注,10,000张图片的语义分割和实例分割标注、驾驶决策标注和路况标注。官方推荐使用此数据集的十个自动驾驶任务:图像标注、道路检测、可行驶区域分割、交通参与物检测、语义分割、实例分割、多物体检测追踪、多物体分割追踪、域适应和模仿学习。
Description加州理工学院行人数据集由大约 10 小时的 640x480 30Hz 视频组成,该视频取自在城市环境中通过常规交通行驶的车辆。 注释了大约 250,000 帧(在 137 个大约分钟长的片段中),总共 350,000 个边界框和 2300 个独特的行人。 注释包括边界框和详细的遮挡标签之间的时间对应关系ReferencesP. Dollár, C. Wojek, B. Sc
数据集介绍:作者们提供了一个立体图像对数据集,适用于上身人的立体人体姿态估计。 SHPED 由 630 个立体图像对(即 1260 个图像)组成,分为 42 个视频片段,每个片段 15 帧。 这些剪辑是从 26 个立体视频中提取的,这些视频是从 YouTube 获得的,标签为 yt3d:enable = true。 此外,SHPED 包含 1470 条火柴人上身注释,对应于 49 个人根据这些条件
城市景观数据(数据集主页)包含从德国驾驶的车辆中拍摄的标记视频。此版本是作为 Pix2Pix 论文的一部分创建的已处理子样本。数据集包含来自原始视频的静止图像,语义分割标签与原始图像一起显示在图像中。这是语义分割任务的最佳数据集之一。 该数据集有 2975 个训练图像文件和 500 个验证图像文件。 每个图像文件为 256x512 像素,每个文件是与图像左半部分的原始照片以及右半部分的标记图像
自 2005 年以来,整体幸福感正在下降,而悲伤和愤怒等负面情绪却在上升。更糟糕的是,越来越多的年轻人患有精神疾病、成瘾及其后果。在某种程度上,这是可以理解的。如今,在世界上发生的一切事情中,很难在精神上维持生计。难怪我们可以解决最轻微的问题。但是我们会因为不知道如何处理这一切而感到难过,并且会更深地陷入不快乐。本数据集收集了排名前33名的关于幸福的书籍、评论和引用。