Shortname | Affiliation | Year | Platform | Publication | Environment | GT-Pose | GT-Map | IMU | GPS | Labels | Lidar | Cameras | RGBD | Event | Radar | Sonar | DVL | Other |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
4Seasons Dataset | Technical University of Munich | 2020 | Veh | GCPR | Outdoor | O | O | O | O | O | O | O | O | |||||
M2DGR | Shanghai Jiaotong University | 2021 | Mob | RA-L | Indoor + Outdoor | O | O | O | O | O | O | O | ||||||
TartanAir | CMU | 2020 | UAV | IROS | Simulation | O | O | O | O | O | ||||||||
VECtor Dataset | ShanghaiTech University | 2022 | Hand | RA-L | Indoor + Outdoor | O | O | O | O | O | O | |||||||
Hilti SLAM Dataset | Hilti, Oxford, UZH | 2022 | Hand | Indoor + Outdoor | O | O | O | O | O | |||||||||
MADMAX Mars Dataset | German Aerospace Center (DLR) | 2021 | Handheld Rover-Mockup | JFR | Rough Terrain, Planetary analog | O | O | O | O | O | Stereo Cams + Stereo Omnidirectional Cameras; Navigation Benchmark | |||||||
FinnForest Dataset | Tampere University | 2020 | Veh | RAS journal | Forest, Terrain | O | O | Multiple Stereo Pairs ; Sampling Rate(40, 13, and 8Hz) | ||||||||||
PennCOSYVIO Dataset | University of Pennsylvania | 2017 | Hand | ICRA | Indoor + Outdoor | O | O | O | ||||||||||
ICL Dataset | Imperial College | 2019 | Hand, MAV | ICRA | Indoor | O | O | O | ||||||||||
UZH-FPV Drone Racing | UZH, ETH | 2019 | UAV | ICRA | Indoor, Urban | O | O | O | O | |||||||||
FMDataset | Hangzhou Dianzi / Tsinghua | 2019 | Hand | ICME | Indoor | O | O | |||||||||||
Rosario Dataset | CONICET-UNR | 2019 | Mob | IJRR | Terrain | O | O | O | Encoder | |||||||||
Collaborative SLAM Dataset (CSD) | Oxford | 2018 | Hand | TVCG/ISMAR | Indoor | O | O | O | O | O | Tango (Asus ZenFone AR) | |||||||
ADVIO Dataset | Aalto U | 2018 | Hand | ECCV | Urban | O | O | O | O | iPhone, Tango, Pixel | ||||||||
DeepIO Dataset | Oxford | 2018 | Hand | Arxiv | Indoor | O | O | |||||||||||
Aqualoc Dataset | ONERA-DTIS | 2018 | ROV | IROS WS | Underwater | O | O | O | Pressure Sensor | |||||||||
InteriorNet | Imperial College | 2018 | Hand | BMVC | Indoor | O | O | O | O | O | O | O | Texture, Lighting, Context, Optical Flow | |||||
SPO Dataset | TUM, Karlsruhe | 2018 | Hand | Arxiv | Urban | O | O | Plenoptic Camera | ||||||||||
Complex Urban | KAIST-IRAP | 2018 | Veh | ICRA | Urban | O | O | O | O | O | Encoder | |||||||
KAIST Day/Night | KAIST-RCV | 2018 | Veh | T-ITS | Urban | O | O | O | O | O | O | Thermal Camera | ||||||
TUM-Visual-Inertial | TUM | 2018 | Hand | Arxiv | Indoor, Urban | O | O | O | ||||||||||
Multi Vech Event | Upenn | 2018 | Veh | RA-L | Urban | O | O | O | O | O | O | |||||||
VI Canoe | UIUC | 2018 | USV | IJRR | Terrain | O | O | O | O | |||||||||
MPO-Japan | ETH-RPG | 2017 | UAV / Hand | IJRR | Indoor | O | O | O | O | |||||||||
Underwater Cave | UDG | 2017 | AUV | IJRR | Underwater | O | O | O | O | O | Profiling Sonar | |||||||
Robot @ Home | MRPT | 2017 | Mob | IJRR | Indoor | O | O | O | O | O | Semantic Labels | |||||||
Zurich Urban MAV | ETH-RPG | 2017 | UAV | IJRR | Urban | O | O | O | O | Streetview images | ||||||||
Chilean Underground | Trimble | 2017 | Mob | IJRR | Terrain (Underground) | O | O | O | O | Encoder | ||||||||
SceneNet RGB-D | Imperial | 2017 | Hand | ICCV | Indoor | O | O | O | ||||||||||
Symphony Lake | Georgia Tech | 2017 | USV | IJRR | Terrain (Lake) | O | O | O | O | PTZ camera, Longterm | ||||||||
Agricultural robot | Bonn | 2017 | Mob | IJRR | Terrain | O | O | O | O | O | O | Multispectral camera | ||||||
Beach Rover | TEC-MMA | 2017 | Mob | Terrain | O | O | O | O | O | O | Encoder | |||||||
EuRoC | ETH-ASL | 2016 | UAV | IJRR | Indoor | O | O | O | O | |||||||||
Cartographer | 2016 | Hand | ICRA | Indoor | O | O | O | |||||||||||
TUM-Mono | TUM | 2016 | Hand | Arxiv | Indoor, Urban | O | Photometric Calibration | |||||||||||
Cityscape | Daimler AG | 2016 | Veh | CVPR | Urban | O | O | O | O | |||||||||
Solar-UAV | ETHZ | 2016 | UAV | CVPR | Terrain | O | O | O | O | O | ||||||||
CoRBS | DFKI | 2016 | Hand | WACV | Indoor | O | O | O | ||||||||||
Oxford-robotcar | Oxford | 2016 | Veh | IJRR | Urban | O | O | O | O | O | ||||||||
NCLT | UMich | 2016 | Mob | IJRR | Urban | O | O | O | O | FOG | ||||||||
RPG-event | Kyushu U | 2016 | Veh | IROS | Urban, Terrain | O | O | O | O | FARO 3D | ||||||||
CCSAD | CIMAT | 2015 | Veh | CAIP | Urban | O | O | O | ||||||||||
TUM-Omni | TUM | 2015 | Hand | IROS | Indoor, Urban | O | ||||||||||||
Augmented ICL-NUIM | Redwood | 2015 | Hand | CVPR | Indoor | O | O | O | ||||||||||
Cambridge Landmark | Cambridge | 2015 | Hand | ICCV | Urban | O | O | O | ||||||||||
ICL-NUIM | Imperial | 2014 | Hand | ICRA | Indoor | O | O | O | ||||||||||
MRPT-Malaga | MRPT | 2014 | Veh | AR | Urban | O | O | O | O | |||||||||
KITTI | KIT | 2013 | Veh | IJRR | Urban | O | O | O | O | O | O | |||||||
Canadian Planetary | UToronto | 2013 | Mob | IJRR | Terrain | O | O | O | O (sensor) | O | ||||||||
Microsoft 7 scenes | Microsoft | 2013 | Hand | CVPR | Indoor | O | O | O | ||||||||||
SeqSLAM | QUT | 2012 | Veh | ICRA | Urban | O | O | |||||||||||
ETH-challenging | ETH-ASL | 2012 | Hand | IJRR | Urban, Terrain | O | O | O | O | O | ||||||||
TUM-RGBD | TUM | 2012 | Hand / Mob | IROS | Indoor | O | O | O | ||||||||||
ASRL-Kagara-airborne | UToronto | 2012 | UAV | FSR | Terrain | O | O | O | ||||||||||
Devon Island Rover | UToronto | 2012 | Mob | IJRR | Terrain | O | O | O | Sunsensor, Inclinometer | |||||||||
ACFR Marine | ACFR | 2012 | AUV | Underwater | O | O | O | O | O | |||||||||
UTIAS Multi-Robot | UT-IAS | 2011 | Mob | IJRR | Urban | O | O | |||||||||||
Ford Campus | UMich | 2011 | Veh | IJRR | Urban | O | O | O | O | O | ||||||||
San francisco | Stanford | 2011 | Veh | CVPR | Urban | O | O | O | O | O | DMI | |||||||
Annotated-laser | NTU | 2011 | Veh | IJRR | Urban | O | O | O | O | |||||||||
MIT-DARPA | MIT | 2010 | Veh | IJRR | Urban | O | O | O | O | O | O | |||||||
St Lucia Stereo | UToronto | 2010 | Veh | ACRA | Urban | O | O | O | ||||||||||
St Lucia Multiple Times | QUT | 2010 | Veh | ICRA | Urban | O | O | |||||||||||
Marulan | ACFR | 2010 | Mob | IJRR | Terrain | O | O | O | O | O | O | IR | ||||||
COLD | KTH | 2009 | Hand | IJRR | Indoor | O | O | O | O | |||||||||
NewCollege | Oxford-Robot | 2009 | Mob | IJRR | Urban | O | O | O | O | O | ||||||||
Rawseeds-indoor | Milano | 2009 | Mob | IROSW | Indoor | O | O | O | O | O | O | |||||||
Rawseeds-outdoor | Milano | 2009 | Mob | IROSW | Urban | O | O | O | O | O | O | O | ||||||
FABMAP | Oxford-Robot | 2008 | Veh | IJRR | Urban | O | O |
- PSINS:严恭敏老师维护的捷联惯导和松组合数据,还有标定、对准数据,有几十组,各种数据,各种精度的 IMU都有,严老师提供了详细的说明,和对应的 PSINS 主函数,缺点是很多数据缺乏参考真值、GNSS 量测只给了 PV 没有方差、没说明杆臂误差和时间不同步方法、紧组合数据较少。数据文件大都以 MATLAB 专用的 mat 格式给出,想用在其它程序得转成 txt 或者 csv,包括:
数据 | (GNSS/INS/HZ/AVPR) | 说明 |
---|---|---|
三轴磁传感器的椭球拟合 | 磁力计多角位置旋转 | 在空旷处,采集了一组三轴磁传感器的多角位置旋转数据,采用迭代最小二乘法对模值作球拟合标定,获得下三角标定矩阵K和零偏b,该方法很简单(参见最新版psins工具箱magellipfit函数)。感觉完全没必要用很多文献中提出的那些花里胡哨的非线性优化、智能寻优以及神经之类的高大上方法(纯粹是吃饱了消化不良没事干)。 |
mti-300car4p8h跑车数据 | 车载九轴IMU,有参考 | Mti-300跑车,采样频率100Hz,总采集时间约为4.8小时。包含MEMS陀螺仪、加速度计、三轴地磁,以及mti输出的姿态方位数据,可作为航姿算法对比验证使用。Allan方差分析陀螺精度约10°/h。 |
某惯性级惯导在一段直路上来回跑车测试 | 车载惯性级组合导航 | 某惯性级光纤惯导在一段约3km直路上来回跑车测试四次,惯导采集频率200Hz,GPS采集1Hz。数据采集时长从0.7小时~7小时,在f024imugps.mat文件内共含四组变量(imu1,gps1;imu2,gps2;imu3,gps3;imu4,gps4),每组对应一次测试。 |
某惯性级光纤惯导手动系统级标定 | 惯性级IMU转台/静止 | 某惯性级光纤惯导经过两三年储存,标定系数可能有些变化。在西工大长安校区惯性技术实验室进行测试试验,光纤惯导采集频率100Hz,先5min静止,再不断转动-静止,共采集约1600s,仅采用手动方法进行翻转,即可实现系统级标定,具体转动方案及标定原理参见“惯性仪器测试与数据分析,第9章”。 |
基于惯性的管线检测原始数据 | MEMS-IMU/ODO管线 | 采用惯导进行地下管线测量的原始MEMS-IMU和里程仪数据,管线长度约250m,共来回拉了两次,可为惯导/里程仪组合导航算法验证使用。可将起始点坐标当作0,去程末点相对坐标:东向 154.337m;北向 201.751m;天向-0.254m。 |
一静态组合导航数据(无平滑效果) | 静态MEMS组合导航 | MEMS-IMU 100Hz(stim300),CDGNSS 1Hz(mm级定位),时常480s。 |
无误差的惯导飞行数据 | 真实飞行轨迹IMU仿真 | 一组无人机惯导飞行数据,飞行速度100m/s,距离约100km,采集时间4000s,频率200Hz,前200s静止。采用INS/DGNSS组合平滑后,再反演生成无误差的IMU和AVP参考值(原理参见文献“基于实测轨迹的高精度捷联惯导模拟器”),可为惯导算法验证使用。 |
千分之二的激光惯导静态测试数据 | 四小时静态激光IMU | 实验室中激光陀螺惯导静止采集数据4小时,采集频率100Hz。 |
14小时的IMU和地磁测试数据 | 十四小时静止九轴IMU | MEMS-IMU(加3轴地磁)静止放置,采集频率10Hz,输出姿态/航向、三轴陀螺、三轴加计、三轴磁数据,总采集时间约为14小时(从晚6:40到第二天早9:00)。 |
三组MTI-300航姿仪跑车数据 | 车载MTI-300加磁力计 | MTi-300在北京地区的测试数据(含IMU、地磁和MTi的姿态航向输出),采样率100Hz,网友可用作练习对比自己的AHRS算法。 |
四组光纤陀螺罗经摇摆对准数据 | 光纤陀螺转台三轴摇摆 | 光纤陀螺罗经系统在转台上做三轴摇摆试验(俯仰10°/5s、横滚20°/8.3s、方位5°/7s),先摇摆15min再静止约30s,对准结果分别为 45.02/134.93/89.93/179.65°。 |
FOG-IMU/GPS紧组合数据 | 光纤 IMU/GNSS 紧组合 | FOG-IMU中光纤陀螺精度约 0.5°/h,采集频率200Hz;GNSS采集了GPS的导航电文和1Hz的伪距和多普勒观测量。在西北工业大学长安校区校园内跑车,总采集时间为0.5小时。 |
超高精度MEMS-IMU静态8h数据 | 八小时高精度静态MEMS | 在实验室静基座条件下,对某型号MEMS-IMU从开机起进行静态数据采集,采样频率100Hz,总采集时间为8小时。Allan方差精度达到0.1°/h。 |
惯导-卫导-天文跑车数据 | 车载IMU/GNSS/CNS | 惯性级激光惯导频率200Hz;GPS单点定位1Hz;CNS为大视场星敏,标称精度20角秒,星敏输出星敏相对于惯性系的姿态四元数 |
IMU-FSAS与载波相位差分GNSS组合数据 | 车载松组合,有参考 | 跑车采集FSAS/GNSS数据,IMU采样频率200Hz,GNSS为1Hz,总采集时间为2000s,附有IE后处理的20Hz参考基准。 |
一段铁轨检测的测试数据 | 惯性级松组合铁轨检测 | 惯性级光纤惯导,输出频率200Hz;差分GNSS(cm级),输出频率1Hz。静态对准后,在铁轨上行往返走600多米。 |
三组cpt-igm-kvh跑车测试 | 三组车载松组合,有参考 | cpt-igm-kvh三种类型惯导跑车测试分别为:(1)cpt中,IMU采样频率为100Hz;GPS采用差分,输出频率1Hz;IE处理的AVP-eb-db输出100Hz。(2)igmt中,IMU采样频率为200Hz;GPS采用差分,输出频率1Hz;IE处理的AVP-eb-db输出100Hz。(3)kvh中,IMU采样频率为200Hz;GPS采用差分,输出频率1Hz;IE处理的AVP-eb-db输出100Hz。 |
光纤惯组SPANISA跑车测试 | 车载光纤松组合,有参考 | FOG惯组为IMU-ISA-100C,采样频率为100Hz;GPS采用差分,输出频率10Hz。先静止690s(可自主对准),然后跑车约5460s,再静止300s。该数据中有IE软件处理的AVP参考输出10Hz,可做对比分析。 |
光纤惯组KVH1775/GPS跑车测试 | 车载FOG松组合,有参考 | FOG惯组为KVH1775,采样频率为100Hz;GPS采用差分,输出频率1Hz。先静止100s(可自主对准),再跑车约5300s。该数据中有某软件处理的AVP参考输出,可做对比分析,值得仔细分析! |
memsfoggps跑车测试 | 车载MTI710/FOG对比 | MEMS惯组为MTI710工作在垂直陀螺模式下(含水平姿态输出),FOG惯组为惯性级别,两IMU采样频率均为100Hz;GPS采用差分,输出频率5Hz。先静止730s,再跑车约3小时,车速较慢约3.5m/s,行车范围约方圆10km内,外行再返回。该数据可用作FOG纯惯性、MEMS/GPS组合、FOG/GPS组合、MEMS/FOG传递对准、MEMS航姿对比等试验。 |
MEMS-GNSS跑车数据C++处理 | 车载MEMS松组合 | MEMS-IMU采集频率100Hz,GNSS频率5Hz(RTK差分、少部分单点),跑车约600s。含Matlab和C++演示。 |
MEMS-MAG-BARO-GNSS-SPP-RTK跑车数据 | 车载MEMS松组合对比 | MEMS-IMU/MAG/BARO采集频率200Hz,GNSS频率5Hz(有单点和RTK差分两种输出),先静止1300s,再跑车约400s。 |
MPU6500-GNSS跑车数据 | MPU6500松组合 | MPU6500-MEMS-IMU采集频率100Hz,GNSS频率1Hz(只有单点定位的位置输出、没有速度),跑车时间长度约2300s,2080s后GNSS丢星约100s。 |
激光惯导与GNSS跑车数据 | 车载导航级松组合 | 激光惯导中陀螺精度约0.01°/h,输出频率为200Hz,GNSS频率1Hz,数据长度约4300s,先静止对准600s,再行驶1小时。 |
高精度MEMS-GNSS跑车数据 | 车载战术MEMS松组合 | 高精度MEMS-IMU( 陀螺零偏1 deg/h、加表零偏100ug)采集频率100Hz,差分GNSS频率5Hz,跑车时间长度约30min。 |
高精度MEMS-FOG-GNSS跑车数据 | MSMS/FOG对比 | 高精度MEMS-IMU( 陀螺零偏0.3 deg/h、加表零偏50ug)采集频率200Hz,光纤FOG-IMU( 陀螺零偏0.02 deg/h、加表零偏50ug)采集频率200Hz,差分GNSS频率5Hz,跑车时度约4000s。 |
模拟战斗机摇翼传递对准的跑车试验数据 | MSMS/惯性级对比 | Stim300-MEMS子惯导采集频率100Hz;惯性级光纤主惯导与GNSS作组合,AVP输出频率10Hz,数据总长度100s。载车大致沿直线从南往北行驶,速度约15m/s,中间主子惯导共同的安装支架绕车辆横滚方向做1.5个周期近似正弦摇摆(模拟战斗机摇翼)。安装支架基本刚性、主子惯导间并排、杆臂很小可忽略,已经过同步处理(不同步10ms量级)。可用作“姿态+速度”匹配传递对准算法验证使用。 |
STIM300-GNSS跑车数据(有姿态参考) | STIM300松组合,有参考 | STIM300采集频率125Hz,单点GNSS频率1Hz,在西工大长安校区内跑车,长度约50分钟,其中有惯性级光纤惯导给出的姿态结果作为参考基准。STIM/FOG/GNSS之间的时间不同步在ms量级。 |
BMI055在移动机器人上的测试 | 机器人MEMS | BMI055-MEMS-IMU在移动机器人进行了两组测试,先是进行了两小时的静态测试;再进行了平地上半小时来回行走测试。 |
MEMS-双天线GNSS-地磁-气压跑车数据 | 车载双天线地磁MEMS | MEMS采集频率100Hz,GNSS频率1Hz,在西安市跑车数据,长度约20分钟,可用作MEMS/双天线GNSS/地磁/气压组合导航或车载航姿算法验证使用。 |
某MEMS-IMU几组振动测试 | MSMS振动台 | MEMS-IMU安装在线振动台上,沿天向轴做随机或扫频振动。 |
MTI几组超量程测试 | MEMS晃动/冲击 | 在实验室电脑旁进行手动大角速度摇晃或大比力冲击测试(最后还有一组跑车测试数据),数据采集400Hz,不接GNSS不接地磁。晃动过程中的姿态精度是无法考核的,而主要查看水平姿态角在超量程后的恢复能力。 |
光纤惯导的系统级标定数据 | 光纤IMU标定 | 光纤惯导中陀螺精度约0.03°/h,惯导频率200Hz,数据长度约1h。 |
两组激光惯导里程计与GNSS跑车数据 | 车载激光IMU/GNSS | 激光惯导中陀螺精度优于0.01°/h,惯导和里程计输出频率均为125Hz,GNSS频率1Hz(只有位置输出,采用串口采集与IMU不太同步),每组数据长度约4200s,路程40km,先静止对准600s,可用于里程计辅助组合导航(里程计安装误差和刻度系数需自己细调)。 |
五组激光惯导与GNSS跑车数据 | 车载激光IMU/GNSS | 激光惯导中陀螺精度优于0.01°/h,惯导和里程计输出频率均为125Hz,GNSS频率1Hz(只有位置输出,采用串口采集与IMU不太同步),每组数据长度约20-30min,路程约3-4km,先静止再跑车再静止,可用于里程计辅助动基座对准测试(里程计安装误差和刻度系数需自己细调)。 |
光纤惯导与GNSS跑车数据 | 车载光纤IMU/GNSS | 光纤惯导中陀螺精度约0.03°/h,惯导频率200Hz,GNSS频率1Hz,从西工大新校区开始跑到市内,数据长度约4300s。 |
STIM300与载波相位差分GNSS组合数据 | 车载STIM300/GNSS | 载车上采集MEMS-STIM300/GNSS数据,采样频率200Hz,总采集时间为2200s。 |
伪造的超高精度惯导数据(一小时误差1m) | 车载仿真高精度iMU | 这是我们'制造'的一套世界上最高精度的捷联惯导跑车实测数据(通过跑车实测组合导航轨迹数据反算IMU陀螺和加速度计信息,即惯性器件反演算法),采样周期10ms,数据长度约1小时,纯惯导精度约为1m/h。 |
惯性级惯导载车上静止30min数据 | 半小时车载静止激光IMU | 在载车上,对某惯性级别激光陀螺捷联惯导进行静态数据采集,有人员上下车晃动干扰,总采集时间为半小时。 |
STIM300静止3h数据 | 三小时静止 STIM300 | 在实验室静基座条件下,对某MEMS-IMU进行静态数据采集,采样频率100Hz,总采集时间为3小时。 |
SBG-ELLIPSE2-A高铁搭载试验 | 高铁 SBG | SBG-ELLIPSE2-A放置在高铁车厢地板上。 |
MTI高铁测试 | 高铁 MEMS | MTI-710设置为航姿工作模式(不外接卫导),放置在高铁车厢窗户边上。 |
- 武大i2Nav开源:武大i2Nav这几套数据质量很高,有详细的说明、配套的开源程序、论文、参考真值:
- i2NAV-awesome-gins-datasets:本数据集采集于湖北省武汉市一处工业园区,为开阔天空场景,GNSS RTK定位良好。数据集包括GNSS定位结果、IMU原始数据和高精度参考真值,以及对应的噪声参数和安装参数。本数据集最大的特点是提供了四种不同型号的MEMS IMU数据,包括消费级MEMS芯片和工业级MEMS模块。相关论文见:https://arxiv.org/abs/2109.03010。
- Wheel-INS: 本数据集采集于武汉大学校园,实验载体分别为轮式机器人和汽车,参考系统为高精度GNSS/INS组合导航系统。数据集包括车轮安装MEMS IMU原始数据,车身安装MEMS IMU原始数据,里程计数据(速度)和位姿参考真值。本数据集同时开源了相关的基于车轮安装IMU的航迹推算系统代码。相关论文见:https://doi.org/10.1109/TVT.2021.3102409、https://doi.org/10.1109/TVT.2021.3108008。
- IMU-Array:本数据集包括IMU阵列(由16个消费级IMU ICM20602组成)的动态测试数据和标定数据。其中动态测试数据采集于湖北省武汉市一处开阔天空场景,数据包括16个消费级IMU的原始测量值、16个IMU进行标定补偿后的测量值,同时提供GNSS RTK定位结果和高精度惯导计算得到的参考真值。标定数据采集于武汉大学测绘学院三轴转台实验室,按照加速度计六位置法和陀螺仪角位置法采集标定数据,并提供标定过程中加速度和角速度真值,以及加速度计和陀螺仪的标定算法。
- GIOW-release:开源了针对全向轮式机器人的GNSS/INS/ODO/WheelAngle 算法代码以及相关的数据。本数据集采集于武汉大学信息学部操场,实验载体为全向轮式机器人,参考系统为高精度GNSS/INS组合导航系统。数据集包括GNSS数据、MEMS IMU原始数据、里程计数据和轮角数据。使用方法详见readme.md,相关论文见:https://doi.org/10.1088/1361-6501/ac17fb。
- 武大USI开源:武大国重杨必胜的城市空间智能(USI)研究小组:
- WHU-TLS:大型三维激光扫描仪数据,由115个扫描点组成,总计超过1.74亿个三维点,采集自11种不同环境(即地铁站、高铁站台、山地、森林、公园、校园、住宅、河岸、文物建筑、地下挖掘和隧道),点密度、杂波和遮挡情况各不相同。还为研究人员提供了地面实况变换、Dong 等人(2018 年)计算的变换以及配准图,目的是在一个共同的基础上更好地比较和了解不同配准方法的优缺点。我们希望该基准能满足研究界的需求,并成为开发前沿 TLS 点云注册方法的重要数据集。此外,建议的基准还能为铁路安全运行、河流调查与治理、森林结构评估、文化遗产保护、滑坡监测和地下资产管理等应用提供合适的数据集。数据申请网址:https://wj.qq.com/s2/12803941/a30e,相关论文:https://doi.org/10.1016/j.isprsjprs.2020.03.013。
- WHU-Helmet: 头盔式多源融合SLAM数据集(GNSS/IMU/Camera/Lidar),采集包括采集自11组不同环境的数据(即地铁站、高铁站台、山地、森林、公园、校园、住宅、河岸、文物建筑、地下挖掘和隧道)。提供了 LiDAR-IMU,LiDAR-Camera 的外参和 Camera 的内参。数据以 Rosbag 形式给出,可以运行在 fast-lio2 下运行的配置文件, 在 Fast_lio、LIO_Livox、LOAM_Livox 和 MULLS 都进行了测试并给出了测试结果。相关论文:https://doi.org/10.1109/TGRS.2023.3275307。
- WHU-Urban-3D:数据集广泛覆盖了机载和移动激光扫描点云,为三维深度学习算法的发展提供了一个独特而富有挑战性的平台。该数据集是在中国熙熙攘攘的大都市中精心采集的,城市场景的复杂性和可变性极高。通过WHU-Urban3D,我们旨在弥补高质量数据集的有限可用性与现实世界室外环境中对三维场景理解日益增长的需求之间的差距。我们希望通过提供注释丰富、内容广泛的数据集,鼓励研究人员探索新的前沿领域,推动三维深度学习应用的发展,从而为令人兴奋的研究想法和创新发展提供更多机会。相关论文:https://doi.org/10.1016/j.isprsjprs.2024.02.007。
- WHU-Railway3D:点云语义分割(PCSS)在为数字孪生铁路生成精确的三维语义地图方面显示出巨大的潜力。在众多 PCSS 数据集的推动下,基于深度学习的方法取得了长足进步。然而,现有数据集往往忽视铁路场景,在规模、类别和场景多样性方面存在局限性。这促使我们建立了 WHU-Railway3D,一个专为铁路场景设计的多样化PCSS数据集。WHU-Railway3D 根据场景复杂程度和语义类别分布将铁路分为城市铁路、农村铁路和高原铁路。该数据集跨度为30公里,包含38亿个点,标注为11个类别(如铁轨、架空线)。除三维坐标外,WHU-Railway3D 还提供了丰富的属性信息,如反射强度和回波数。在数据集上对先进方法进行了广泛评估,并随后进行了深入分析。最后,确定了关键挑战和潜在的未来工作,以激励进一步的创新研究。数据申请链接:https://wj.qq.com/s2/13387420/ac80,
- 城市铁路数据集是使用 Optech 的 Lynx 移动测绘系统在位于中国中部的一个城市路段采集的,覆盖道路长度约 10.7 公里。与街道道路基准相比,城市铁路数据集是在复杂的铁路环境中采集的,其中包含更多噪声和具有挑战性的铁路相关类别。
- 农村铁路数据集是使用配备两个 HiScan-Z 激光雷达传感器的 MLS 系统在野外采集的,覆盖道路长度约 10.6 公里。该数据集面临各种挑战,包括植被和地形变化造成的遮挡。
- 高原铁路数据集是使用配备 32 线激光雷达传感器的铁路移动测量系统 (rMMS) 在高原地区获得的,道路长度约为 10.4 公里。高原铁路数据集由于不同类别之间的点数分布不平衡而构成挑战,因此需要制定策略来解决针对不同模式的均衡学习问题。
- 港理工IPNL开源:他们还开源了图优化 GNSS 程序 GraphGNSSLib 和图优化紧组合GNSS/LiDAR/IMU 程序 GLIO。
-
UrbanNavDataset:在包括东京和香港在内的亚洲城市峡谷中收集的本地化数据开放源代码。在城市峡谷深处使用低成本传感器进行定位仍然是一个具有挑战性的问题。在城市峡谷中,由于高楼林立,导致大量非视距(NLOS)接收和多径效应,GNSS 的精度受到严重挑战。此外,过多的动态物体也会扭曲激光雷达和相机的性能。UrbanNav 数据集希望为社区提供一个具有挑战性的数据源,以进一步加快在具有挑战性的城市峡谷中进行精确、稳健定位的研究。该数据集包括来自 GNSS 接收机、激光雷达、相机和 IMU 的传感器测量数据,以及来自 SPAN-CPT 系统的精确地面实况。与 Waymo、KITTI 等现有数据集不同,UrbanNav 提供原始 GNSS RINEX 数据。在这种情况下,用户可以通过原始数据提高 GNSS 定位的性能。总之,UrbanNav 数据集特别注重改善城市峡谷中的 GNSS 定位,同时还提供来自激光雷达、摄像头和 IMU 的传感器测量数据。
-
UrbanLoco: 用于城市场景制图和定位的全传感器套件数据集。测绘和定位是自动驾驶的关键模块,在这一领域已取得了重大成就。除全球导航卫星系统(GNSS)外,点云注册、视觉特征匹配和惯性导航方面的研究也大大提高了不同场景下绘图和定位的准确性和鲁棒性。然而,高度城市化的场景仍然具有挑战性: 基于激光雷达和摄像头的方法在面对大量动态物体时表现不佳;基于全球导航卫星系统的解决方案存在信号丢失和多径问题;惯性测量单元(IMU)存在漂移问题。遗憾的是,目前的公共数据集要么没有充分应对这一城市挑战,要么没有提供足够的与测绘和定位相关的传感器信息。在此,我们介绍 UrbanLoco:这是一个在高度城市化环境中收集的制图/定位数据集,具有完整的传感器套件。该数据集包括在旧金山和香港采集的 13 条轨迹,总长度超过 40 公里。我们的数据集包括各种城市地形:城市峡谷、桥梁、隧道、急转弯等。更重要的是,我们的数据集包括来自激光雷达、摄像头、IMU 和 GNSS 接收机的信息。数据以 rosbag 形式给出,通过了把 rosbag 转为 RINEX 文件的
Dataset Date of Collection TotalSize Sensors Download DateFeaturesEnvironment CABayBridge20190828151211 2019/08/28 44.6 GB GNSS/LiDAR/Camera/IMU/SPAN-CPT GoogleDrive Dynamic Objects, Sharp Turn CAMarketStreet20190828155828 2019/08/28 60.6 GB GNSS/LiDAR/Camera/IMU/SPAN-CPT GoogleDrive Dynamic Objects, high-rising buildings CARussianHill20190828173350 2019/08/28 67.2 GB GNSS/LiDAR/Camera/IMU/SPAN-CPT GoogleDrive Dynamic Objects, high-rising buildings CAChinaTown20190828180248 2019/08/28 54.3 GB GNSS/LiDAR/Camera/IMU/SPAN-CPT GoogleDrive Dynamic Objects, high-rising buildings CAColiTower20190828184706 019/08/28 9.73 GB GNSS/LiDAR/Camera/IMU/SPAN-CPT GoogleDrive Dynamic Objects, high-rising buildings CALombardStreet20190828190411 2019/08/28 9.83 GB GNSS/LiDAR/Camera/IMU/SPAN-CPT GoogleDrive Dynamic Objects, high-rising buildings CAGoldenBridge20190828191451 2019/08/28 40.1 GB GNSS/LiDAR/Camera/IMU/SPAN-CPT GoogleDrive Dynamic Objects, high-speed dataset HK-Data20190426-2 2019/04/26 41.6 GB GNSS/LiDAR/Fish-eye Camera/IMU/SPAN-CPT GoogleDrive Dynamic Objects, Tall buildings HK-Data20190316-2 2019/03/16 62.3 GB GNSS/LiDAR/Fish-eye Camera/IMU/SPAN-CPT GoogleDrive Poor GNSS visibilities, Very Tall buildings HK-Data20190316-1 2019/03/16 27.9 GB GNSS/LiDAR/Fish-eye Camera/IMU/SPAN-CPT GoogleDrive Poor GNSS visibilities, Very Tall buildings HK-Data20190117 2019/03/16 6.11 GB GNSS/LiDAR/Camera/IMU/SPAN-CPT GoogleDrive decent GNSS visibilities, sub-urban
-
-
港科技开源:
- GVINS-Dataset:开源程序 GVINS 配套数据集,
- MASSTAR:表面预测和补全已经在各种应用中广泛研究,用于多样化的下游任务。随着相关研究的发展,表面补全算法从对象级别发展到场景级别,从虚拟场景扩展到真实世界,从单模态发展到多模态。当前的数据集表现出不尽如人意的性能和挑战不足,这严重制约了该领域的发展。在本文中,我们提出了MASSTAR:面向表面预测和补全任务的多模态大规模场景数据集和多功能工具链。我们收集了大量场景级别模型,包括来自各种开源作品的部分真实世界捕获数据。我们还开发了一个工具链,以便通过对原始3D数据进行分割、选择有价值的模型并生成包括RGB图像、描述性文本、深度图像和部分点云在内的多模态数据来处理数据。此外,我们对在我们的数据集上训练的不同算法进行了基准测试。我们将MASSTAR与当前数据集进行了比较,验证了我们系统的优越性。
- 中山大学CPNT开源:
-
SYSU-Campus-GVI-Dataset:我们收集了中山大学校园内六个代表性场景的数据。其中,"宿舍楼 "和 "工程楼 "场景具有城市峡谷的特点,受周围高楼或山林的影响,整个场景都是高楼林立。在体育馆大楼和医疗大楼场景中,数据采集设备从开阔的室外进入室内,然后又回到室外。而 SYSU Campus 和 Athletic Field 场景则分别在大规模和重复环境中采集。SYSU-Campus-GVI 数据集的总持续时间约为 3611 s,总行驶距离约为 16456 m。相关论文:https://doi.org/10.1109/JIOT.2024.3379755。
-
GVI-SYSU-Outdoor-Indoor-Dataset:该数据集包含在地下车库和建筑物中采集的复杂的室内-室外转换 GNSS 视觉-惯性数据集。我们的多传感器数据采集设备用途广泛,既可用于车载应用,也可用于手持应用。该设备集成了多种传感器,包括 Realsense D455 的立体相机和 IMU、VRTK2 的两个用于 RTK 定位信息的 U-blox ZED-F9P 模块,以及用于压力传感器(气压计)测量的智能手机。所有传感器数据均使用时间戳进行同步。我们在各种复杂的室内外场景中收集了五个数据集,包括室外环境、地下位置和建筑物内部。相关论文:https://doi.org/10.1109/TCSII.2024.3351172。
-
LBL-AQUALOC-Dataset:公共水下数据集 AQUALOC 收集了水下考古遗址场景中的十个序列数据。为了解决 LBL 数据缺乏的问题,我们利用半物理模拟构建了一个新的数据集 LBL-AQUALOC。这一新数据集包括来自 LBL、单相机、PS 和低成本 MEMS-IMU 的测量数据,以 Rosbag 格式打包。相关论文:https://doi.org/10.1109/LRA.2023.3334979。
-
-
上海交大ViSYS开源:
-
M2DGR: 适用于地面机器人的多模式、多场景 SLAM 数据集。这是一个由地面机器人收集的新型大规模数据集,该机器人配有全套传感器套件,包括六个鱼眼和一个天空指向型 RGB 摄像机、一个红外摄像机、一个事件摄像机、一个视觉惯性传感器(VI-sensor)、一个惯性测量单元(IMU)、一个激光雷达、一个消费级全球导航卫星系统(GNSS)接收器和一个带实时运动学(RTK)信号的 GNSS-IMU 导航系统。所有这些传感器都经过良好校准和同步,并同时记录数据。地面真实轨迹由动作捕捉装置、激光 3D 跟踪器和 RTK 接收器获得。数据集由 36 个序列(约 1 TB)组成,在包括室内和室外环境在内的不同场景中捕获。我们在 M2DGR 上评估了最先进的 SLAM 算法。结果表明,现有解决方案在某些场景下表现不佳。为了研究界的利益,我们公开了数据集和工具。相关论文:https://doi.org/10.1109/LRA.2021.3138527。
-
M2DGR-plus:扩展和更新 M2DGR:用于地面机器人的新型多模式、多场景 SLAM 数据集。配套开源程序:Ground-Fusion,相关论文:https://doi.org/10.48550/arXiv.2402.14308。
-
- 3DOM-FBK开源:
-
知名SLAM数据集:
- IMU人体姿态数据集:
- Collaborative_Navigation:地面和太空平台之间的协同定位和导航
-
UWB相关数据集:
- 时间同步:UWB有四种测矩值,信号到达时间(TOA)、信号到达时间差(TDOA)、信号往返时间(TOF)、信号到达角(AOA),其中 TOA 需要基站和标签都进行时间同步,TODA 需要基站时间同步,AOA 和 TOF 无需时间同步。
- 基准站坐标:注意用什么坐标系。
- uwb-drone-dataset:基于 UWB 的无人机定位系统在 GNSS 信号缺失的环境中的应用: 特征和数据集。该资源库包含一个数据集,用于研究 UWB 辅助无人飞行器自主飞行的准确性,还包含 ROS 节点,用于将 Decawave 的 DWM1001 节点设置为主动标签或被动标签时与之连接。最后,我们还提供了用于重新编程 DWM1001 DEV 板的固件,以获得快速准确的锚点自动定位。数据集采用两种不同的方法记录,即在无人飞行器上或在地面站记录rosbags。第一种情况包括使用配备有源 UWB 标签并自主飞行的四旋翼飞行器上的机载计算机获取的数据。第二种情况是指四旋翼飞行器手动飞行时,与地面站连接的无源标签所获取的数据。在第二种情况下,由于用于记录位置的标签是被动的,因此运动捕捉系统提供的地面实况数据与 UWB 数据之间存在延迟。主飞行测试由 F450 四旋翼飞行器完成,该飞行器配备了运行 PX4 固件的 Pixhawk 2.4、作为配套计算机运行 Ubuntu 16.04 的英特尔 Up Board、ROS Kinetic 和 MAVROS,以及用于高度估计的 TF Mini 激光雷达。相关论文:https://doi.org/10.1109/IROS45743.2020.9341042
- UWB_TDOA_dataset:我们提供了一个 UWB 到达时间差(TDOA)测量数据集。我们使用 TDOA2 模式基于 Bitcraze 的 Loco Position System(LPS)收集了 UWB 测量数据。地面实况由带有 10 个 Vicon 摄像头的运动捕捉系统提供。TDOA 测量由 Crazyflie 2.0 纳米四旋翼飞行器记录。来自 Vicon 系统的地面实况测量值与 UWB TDOA 测量值同步,以便计算 TDOA 测量偏差。利用从七个不同的 UWB 锚点星座收集的测量数据创建了一个训练数据集。神经网络用于捕捉和纠正 TDOA 测量偏差,以实现准确的状态估计。
- Industrial-UWB-localization-CIR-dataset:包含信道脉冲响应数据(CIR)的工业 UWB 定位数据集。该数据集包含来自工业环境中 23 个不同位置的 CIR。这些信号来源于为估计距离而配置的双向测距标签-锚点对。如下图所示,该区域总共放置了 21 个锚点,允许视距(LOS)和非视距(NLOS)信号传播。参考论文:https://doi.org/10.1109/ACCESS.2020.3012822、https://doi.org/10.3390/s19071548。
- IR-UWB-Radar-Signal-Dataset-for-Dense-People-Counting:用于人员计数的UWB数据集。该数据集由 376,000 个脉冲无线电超宽带(IR-UWB)雷达信号组成,这些信号来自三个密集场景中的最多 20 人,包括在每平方米 3 人和 4 人的受限区域中随机行走的 0-20 人,以及在平均距离为 10 厘米的队列中最多 15 人。
- UWB_Dataset:
- uwb-nlos-human-detection:
其它各种各样的数据集: