现在关于自动驾驭数据集你想知道的,应该都在这儿了,这是「整数智能」自动驾驭数据集八大系列共享之系列一:

「八大系列概览」

自动驾驭数据集共享是整数智能推出的一个全新共享系列,在这个系列中,咱们将介绍现在为止各大科研机构和企业推出的所有揭露自动驾驭数据集。数据集首要分为八个系列:

  • 系列一:方针检测数据集
  • 系列二:语义切割数据集
  • 系列三:车道线检测数据集
  • 系列四:光流数据集
  • 系列五:Stereo Dataset
  • 系列六:定位与地图数据集
  • 系列七:驾驭行为数据集
  • 系列八:仿真数据集

本文是<系列一方针检测数据集>的第一篇,总共分为三篇来介绍。

曩昔,研讨人员创建和发布的数据集相对较小,这些数据集的数据来历也比较有限,一般仅限于摄像头数据。跟着搜集设备的晋级, 自动驾驭数据集也在不断晋级。以谷歌自动驾驭轿车为例,谷歌自动驾驭轿车在外部车顶上设备了64束激光测距仪,可以使自动驾驭轿车把激光测的数据和高分辨率的地图相结合,使得做出不同类型的数据场景,以便在自动驾驭中逃避障碍物及遵循交通规则。除此之外,Pandset、nuScenes、BLVD等均采用了激光雷达传感器。

除了国外的一些知名数据集,百度、华为、滴滴和西安交大研讨所也先后推出了国内的自动驾驭数据集,如Apollo Scape数据集、SODA10M 数据集、D-City数据集和BLVD数据集,为国内自动驾驭技能的发展供给了重要的研讨材料。

下面共包括14个数据集:

01 「Waymo数据集」

  • 发布方:Waymo
  • 下载地址:waymo.com/open/
  • 发布时刻:2019年发布感知数据集,2021年发布运动数据集
  • 巨细:1.82TB
  • 简介:Waymo数据集是到现在为止最大、最多样化的数据集,比较于以往的数据集,Waymo在传感器质量和数据集巨细等方面都有较大提升,场景数量是nuScenes数据集的三倍
  • Perception Dataset
    • 1950个自动驾驭视频片段,每段视频包括20s的接连驾驭画面
    • 轿车、行人、自行车、交通标志四类标签
    • 1260万个3D框,1180万个2D框
    • 传感器数据:1 个中程激光雷达、4 个短程激光雷达、5个摄像头
    • 搜集规模包括美国加州的凤凰城、柯克兰、山景城、旧金山等地区的市中心和郊区。同时触及各种驾驭条件下的数据,包括白日、黑夜、拂晓、傍晚、雨天、晴天

  • Motion Dataset
    • 包括574 小时的数据,103,354个带地图数据片段
    • 轿车、行人、自行车三类标签,每个方针都带有2D框标示
    • 挖掘用于行为猜测研讨的行为和场景,包括转弯、并道、变道和交汇
    • 地点包括:旧金山、凤凰城、山景城、洛杉矶、底特律和西雅图

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

02「PandaSet」

  • 发布方:禾赛科技&Scale AI
  • 下载地址:scale.com/resources/d…
  • 发布时刻:2019
  • 巨细:16.0 GB
  • 简介:Pandaset面向科研及商业应用揭露。初次同时运用了机械旋转式和图画级前向两类激光雷达进行数据搜集,输出点云切割结果
  • 特征
    • 48000多个摄像头图画
    • 16000个激光雷达扫描点云图画(超越100个8秒场景)
    • 每个场景的28个注释
    • 大多数场景的37个语义切割标签
    • 传感器:1个机械LiDAR,1个固态LiDAR,5个广角摄像头,1个长焦摄像头,板载GPS / IMU

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

03「nuScenes」

  • 发布方:无人驾驭技能公司Motional
  • 下载地址:scale.com/open-datase…
  • 论文地址:arxiv.org/abs/1903.11…
  • 发布时刻:2019
  • 巨细:547.98GB
  • 简介:nuScenes 数据集是自动驾驭范畴运用最广泛的揭露数据集之一,也是现在最权威的自动驾驭纯视觉 3D 方针检测评测集。nuScenes数据集灵感来历于kitti,是首个包括全传感器套件的数据集。其间包括波士顿和新加坡的 1000 个杂乱的驾驭场景。该数据集制止商用
  • 特征
    • 全传感器套件:1个激光雷达、5个雷达、6个摄像头、GPS 、 IMU
    • 1000个场景,每个场景20秒(850个用于模型练习,150个用于模型测验)
    • 40万个关键帧,140万张相机图片,39万个激光雷达扫描点云图画,140 万个雷达扫描点云图画
    • 为23个方针类标示的1400万个3D标示框

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

04「Lyft Level 5」

  • 发布方:来福车(Lyft)交通网络公司
  • 下载地址:level-5.global/register/
  • 论文地址:arxiv.org/pdf/2006.14…
  • 发布时刻:2019年发布Lyft-perception数据集,2020年发布Lyft-prediction数据集
  • Lyft-perception
    • 简介:来福车的自动驾驭轿车装备了一个内部传感器套件,可以搜集其他轿车、行人、交通灯等的原始传感器数据
    • 特征
      • 超越 55,000 帧,由人工进行3D标示
      • 130万3D标示
      • 3万激光雷达点云数据
      • 350个60-90分钟的场景

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

  • Lyft-prediction
    • 简介:该数据集包括无人驾驭车队遇到的轿车、骑自行车者、行人等其他交通行为主体的动作记载。这些记载来自经过原始激光雷达、相机和雷达数据,是练习运动猜测模型的抱负选择
    • 特征
      • 1000 个小时的驾驭记载
      • 17 万个场景:每个场景持续约 25 秒,包括交通信号灯、航拍地图、人行道等
      • 2575 公里:来自公共路途的 2575 公里数据
      • 15242 张标示图片:包括高清语义切割图以及该区域的高清鸟瞰图

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

05「H3D – HRI-US」

  • 发布方:本田研讨所
  • 下载地址:usa.honda-ri.com//H3D
  • 论文地址:arxiv.org/abs/1903.01…
  • 发布时刻:2019
  • 简介:运用3D LiDAR扫描仪搜集、大型全盘绕3D多方针检测和盯梢数据集,该数据集仅供大学研讨人员运用
  • 特征
    • 360 度 LiDAR 数据集
    • 160个拥堵且杂乱的交通场景
    • 27,721帧,1,071,302个3D标示框
    • 自动驾驭场景中8类常见方针的人工标示
    • 传感器:3个高清摄像头,1个激光雷达,GPS / IMU

06「Boxy vehicle detection数据集」

  • 发布方:博世
  • 下载地址:boxy-dataset.com/boxy/
  • 论文地址:openaccess.thecvf.com/content_ICC…
  • 发布时刻:2019
  • 巨细:1.1TB
  • 简介:大型车辆检测数据集,该数据集的亮点在于其500万像素的高分辨率,但不供给3D点云数据以及城市路途交通数据
  • 特征
    • 220万张、共1.1TB的高分辨率图画
    • 500万像素分辨率
    • 1,990,806个车辆标示,包括2D框标示和2.5D标示
    • 包括晴天、雨天、拂晓、白日、傍晚等多种场景
    • 包括交通拥堵和疏通的高速公路场景

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

07「BLVD」

  • 发布方:西安交通大学人工智能与机器人研讨所
  • 下载地址:github.com/VCCIV/BLVD/
  • 论文地址:arxiv.org/pdf/1903.06…
  • 发布时刻:2019
  • 简介:全球首个五维驾驭场景了解数据集。BLVD旨在为动态4D盯梢(速度、距离、水平角度和垂直角度)、5D交互事件辨认(4D+交互行为)和意图猜测等使命供给一个一致的验证平台。由西安交通大学夸父号无人车搜集
  • 特征
    • 标示654个包括12万帧的序列,全序列5D语义注释
    • 249129条3D方针框,4902个有用可盯梢的独立个体
    • 总长度约214900个盯梢点
    • 6004个用于5D交互事件辨认的有用片段,4900个可以进行5D意图猜测的方针
    • 丰厚的场景:城市和高速公路、白日和夜晚
    • 多个方针:行人、车辆、骑行者(包括骑自行车和骑摩托车的人)
    • 传感器:一个Velodyne HDL-64E三维激光雷达、GPS / IMU、两个高分辨率多角度相机

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

08「SODA10M 数据集」

  • 发布方:华为诺亚方舟实验室&中山大学
  • 下载地址:soda-2d.github.io/download.ht…
  • 论文地址:arxiv.org/pdf/2106.11…
  • 发布时刻:2021
  • 巨细:5.6GB(带符号的数据),2TB(未符号的数据)
  • 简介:半/自监督的2D基准数据集,其首要包括从32个城市搜集的一千万张多样性丰厚的无标签路途场景图片以及两万张带标签图片
  • 特征
    • 1000万张无标签图片以及2万张有标签图片,由手机或行车记载仪(1080P+)每10秒获取一帧图画
    • 6种首要的人车场景类别:行人、自行车、轿车、卡车、电车、三轮车
    • 掩盖我国32个城市
    • 场景的多样性掩盖:晴天/阴天/雨天;城市大街/高速公路/村庄路途/住宅区;白日/夜间/拂晓/傍晚
    • 地平线保持在图画的中心,车内的遮挡不超越整个图画的15%

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

09「D-City数据集」

  • 发布方:滴滴
  • 下载地址:www.scidb.cn/en/detail?d…
  • 发布时刻:2019年
  • 巨细:131.21 GB
  • 简介:D-City是一个大规模行车视频数据集。与现有的数据集比较,D-City胜在其数据集的多样性,数据集搜集自运行在我国五个城市的滴滴运营车辆,而且包括不同的气候、路途和交通状况
  • 特征
    • 10,000 多个视频,所有视频均以高清(720P)或超高清(1080P)分辨率录制,所供给的原始数据均存储为帧率25fps、时长30秒的短视频
    • 其间大约有1000个视频对12类方针都进行2D框标示以及盯梢标示,包括轿车、卡车、公共轿车、卡车、行人、摩托车、自行车、开放式和封闭式三轮车、叉车以及障碍物
    • 所供给的原始数据均存储为帧率25fps、时长30秒的短视频
    • 丰厚的场景:包括了不同的气候、路途、交通状况,尤其是极杂乱和多样性的交通场景,如光线不足、雨雾气候、路途拥堵、图画清晰度低等

10「Apollo Scape数据集」

  • 发布方:百度
  • 下载地址:apolloscape.auto/scene.html
  • 发布时刻:2018-2020年
  • 简介:百度阿波罗数据集包括轨迹猜测、3D 激光雷达方针检测和盯梢、场景解析、车道语义切割、3D 轿车实例切割、立体和修复数据集等
  • 特征
    • 场景切割数据:ApolloScape发布的整个数据集包括数十万帧逐像素语义切割标示的3384 x 2710高分辨率图画数据
    • 车道语义切割:110,000多帧的高质量的像素级语义切割数据
    • 3D物体检测和追寻数据集:在我国北京的各种照明条件和交通密度下搜集

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

11「BDD100K」

  • 发布方:加州大学伯克利分校AI实验室(BAIR)
  • 下载地址:bdd-data.berkeley.edu/
  • 论文地址:arxiv.org/pdf/1805.04…
  • 发布时刻:2018
  • 巨细:57.45GB
  • 简介:BDD100K凭借其数据集的多样性赢得了很大关注,该数据集经过众包的方式由数万名司机进行搜集,包括的城市包括纽约、旧金山湾区和其他地区。BAIR 研讨者在视频上采样关键帧,并为这些关键帧供给标示
  • 特征
    • 100,000个高清视频,超越1,100小时的驾驭记载,每个视频大约40秒长,清晰度为720p,帧率为30
    • 视频还包括GPS位置信息、IMU数据和时刻戳
    • 包括晴天、阴天、雨天、雪天、多雾气候、多云6种气候;白日、夜晚;城市路途、地道、高速公路、居民区、停车场和加油站等不同驾驭场景
    • 研讨者为每个视频的第10秒采样关键帧
    • 包括以下几种标示类型:图画标示、车道线标示、可行进区域标示、路途方针检测、语义切割、实例切割、多方针检测盯梢等

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

12「KITTI」

  • 发布方:德国卡尔斯鲁厄理工学院(KIT)、丰田工业大学芝加哥分校(TTIC)
  • 下载地址:www.cvlibs.net/datasets/ki…
  • 论文地址:arxiv.org/abs/1803.09…
  • 发布时刻:2011
  • 简介:KITTI是自动驾驭范畴最重要的数据集之一,KITTI首要是针对自动驾驭范畴的图画处理技能,首要应用在自动驾驭感知和猜测方面,其间也触及定位和SLAM技能。该数据集用于评测立体图画(stereo),光流(optical flow),视觉测距(visual odometry),3D物体检测(object detection)和3D盯梢(tracking)等计算机视觉技能在车载环境下的功能
  • 特征
    • 包括KITTI-stereo、KITTI-flow、KITTI-sceneflow、KITTI-depth、KITTI-odometry、KITTI-object、KITTI-tracking、KITTI-road、KITTI-semantics等数据集
    • 立体图画和光流图:389对
    • 39.2 km视觉测距序列以及超越200k 3D标示物体的图画组成 ,以10Hz的频率采样及同步
    • 3D物体检测类别:轿车、卡车、卡车、行人、自行车、电车、其他
    • 包括场景:城市路途、村庄和高速公路
    • 传感器:1个64线3D激光雷达,2个灰度摄像机,2个彩色摄像机,以及4个光学镜头

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

13「CityPersons 」

  • 发布方:马克斯普朗克学会 (Max Planck Inst.(Info.))
  • 下载地址:www.cityscapes-dataset.com/login/
  • 论文地址:arxiv.org/abs/1702.05…
  • 发布时刻:2017
  • 简介:CityPersons是Cityscapes的一个子集,对Cityperscapes中的行人进行2D框标示。该行人数据集比以往的数据集如INRIA 、ETH、TudBrussels和Daimler等更具多样性和丰厚性,包括的规模包括法国、德国和瑞士
  • 特征
    • 进一步的细粒度标签:行人(步行、跑步、站立)、骑行者(骑自行车的人、骑摩托车的人)、坐着的人、其他(不同寻常的人体姿态例如伸展等)
    • 除了真人之外,还标示了海报上的人、雕塑、镜子或的窗户上人的影子等
    • 数据集包括27个不同城市、3个不同季节以及不同的气候状况
    • 数据集共包括35000个行人,均匀每张图包括7个人的标示

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

14「TUD-Brussels Pedestrian &TUD-MotionPairs 」

  • 发布方:马克斯普朗克学会 (Max Planck Inst.(Info.))
  • 下载地址:www.mpi-inf.mpg.de/departments…
  • 论文地址:www.mpi-inf.mpg.de/fileadmin/i…
  • 发布时刻:2010
  • 简介:马克斯普朗克学会于2010年前期推出行人数据集,马克斯普朗克学会经过这个数据集完成了当时一项具有挑战性的使命——即在轿车行进过程中,经过样貌特征和运动特征来完成多视角的行人检测
  • TUD-Brussels Pedestrian
    • 经过一辆驾驭轿车搜集的布鲁塞尔市中心的数据
    • 508对分辨率为640×480的图画
    • 包括1326个行人标示

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

  • TUD- MotionPairs
    • 1092对图画,带有1776个行人标示的图画
    • 192对包括正负片的图画
    • 在城市行人区内记载的多视角图画

最全自动驾驶数据集分享系列一|目标检测数据集(1/3)

「联络咱们」

咱们希望经过咱们在数据处理范畴的专业能力,在未来三年,可以赋能1000+以上的AI企业,成为这些企业的「数据合伙人」,因此咱们十分等待能与正在阅览这篇文章的您,有进一步的沟通交流,所以十分欢迎您来联络咱们,一起探索合作的可能性,咱们的联络方式如下:

联络人:祁先生 13456872274

更多概况可拜访咱们的官网:www.molardata.com