本文原本只是自己在拿到mid360后,开始进行开发过程的一些问题和学习的记录。毕竟实物和仿真还是有很多不同,且由于碰到的问题也比较多,READEME也越来越详细,所以就干脆整合起来,做成了一篇使用mid360的搭建入门的导航系统全流程分享。里面用到的都是主流的开源的框架(部分文件做了修改和mid360适配),fast_lio, move_base等等,或许能帮助到第一次开发机器人实物导航的朋友。
本文的代码地址:https://github.com/66Lau/NEXTE_Sentry_Nav
如果需要仿真环境:https://github.com/66Lau/sentry_sim
环境:
- ros-noetic
- ubuntu 20.04
你可以跟着下文步骤,逐一对clone开源仓库,再进行修改配置,但是建议直接直接克隆本仓库至你的工作空间的src下(因为做了很多修改,如果再clone我引用的原来的仓库,可能有些地方我没记在README里面导致你运行失败)然后再根据本文的顺序逐一进行配置和尝试
- 安装Livox_sdk2,readme有写相关过程,注意:要更改主机ip为192.168.1.50ubuntu修改方法,本人雷达ip为192.168.1.180
- 安装livox_ros_driver2, readme有写相关过程, 注意运行前要注意更改config里面的主机ip和雷达IP
- 配置fast-lio
参考:
FAST_LIO原地址
FAST-LIO配置中文博客
关于在ROS1下用MID360配置FAST-LIO2备忘
更建议参考源地址的READEME
sudo apt install libeigen3-dev
sudo apt install libpcl-dev
# ros2需要安装
sudo apt install ros-humble-pcl-ros
# 编译fast-lio
#这里进入的是你自己的工作空间的src,注意替换$A_ROS_DIR$
cd ~/$A_ROS_DIR$/src
git clone https://github.com/hku-mars/FAST_LIO.git
cd FAST_LIO
git submodule update --init
cd ../..
catkin_make
source devel/setup.bash
# 注意,如果使用的是mid360,即使用的是livox_ros_driver2而非1的话,
# 需要前往fast-lio的CmakeLists文件修改find_package里的livox_ros_driver为livox_ros_driver2,同时package.xml里面的也一样,对应的src中的cpp文件也需要修改,嫌改的麻烦的话mid360可以直接用我仓库中的fast_lio
# 安装sophus
git clone https://github.com/strasdat/Sophus.git
cd Sophus
git checkout a621ff
mkdir build
cd build
cmake ../ -DUSE_BASIC_LOGGING=ON
make
sudo make install
上述步骤可能会报错,解决方案
/home/lau/Sophus/sophus/so2.cpp:32:26: error: lvalue required as left operand of assignment
unit_complex_.real() = 1.;
^~
/home/lau/Sophus/sophus/so2.cpp:33:26: error: lvalue required as left operand of assignment
打开其位置so2.cpp:32:26改为
SO2::SO2()
{
unit_complex_.real(1.);
unit_complex_.imag(0.);
}
sophus安装成功后再重新编译fast-lio
最后运行
# 进入livox_ros_driver2所在的工作空间
cd ~/$A_ROS_DIR$
source devel/setup.bash
roslaunch livox_ros_driver2 msg_MID360.launch
#再开一个终端,进入fast_lio所在的工作空间
cd ~/$A_ROS_DIR$
source devel/setup.bash
roslaunch fast_lio mapping_mid360.launch
一些基础的入门介绍:
上面的建图完成后,如果我们希望下次机器人导航的时候,能找到机器人自己的当前位置,那么就需要对机器人进行定位操作。也有如下几种方式:
- 方式一:直接在初始位置使用里程计定位,也就是说,如果能确保机器人每次的上电和程序运行的初始位置始终一至,那么就可以使用fast_lio的里程计进行机器人定位。但这样的劣势很明显:1.机器人需要确保自己每次的初始位置一致,否则就会有误差;2.机器人在移动时,里程计会产生累计误差,无法消除。
- 方式二:使用地图进行重定位,简单来说,就是通过当前雷达的点云和已构建的地图进行匹配来找到机器人当前的位姿。一般二维地图采用amcl进行重定位,三维点云采用icp进行重定位,当然,也有一些新的论文会提出新的更好的重定位定位方法,这些优化的算法暂不讨论。这种重定位方式一般会要求人给一个大概的初始位置,又或者可以依靠机器人的其他传感器给出一个粗略的初始位置估计。
考虑到避免累计误差,我们采用方式二进行定位。我们选用了一个开源的重定位代码(实际采用的也是icp,使用python写的,考虑运行速度的话可以自行使用c++实现或者使用其他icp重定位代码):FAST_LIO_LOCALIZATION
# 所需包
sudo apt install ros-$ROS_DISTRO-ros-numpy
pip install numpy==1.21
pip install open3d
目前这套适用python3.8,如果你有多个python环境,自行修改哈。
在配置时,我们发现了一些问题,主要还是版本导致。
一个是原仓库使用的是python2,python2使用和安装外部库已经不太方便了,所以换成了python3。
另一个是FAST_LIO_LOCALIZATION里面也包含了FAST_LIO,但是这里面的FAST_LIO还是比较老的版本,建议还是从最新的FAST_LIO仓库里拉最新的(因为做了mid360的适配),然后记得在cmakelist里修改生成的可执行文件的名称,否则会和上一步的fast_lio的mapping重复报错。
所以想使用的话建议还是直接使用我们的sentry_slam/FAST_LIO_LOCALIZATION
和sentry_slam/FAST_LIO
这两个修改好的包。
同时记录一下我对FAST_LIO_LOCALIZATION所做的修改,包括以下文件:
-
global_localization.py
#!/usr/bin/python3
此处我们修改解释器为python3*import _thread*
, python3中使用thread会报错,已经改名为_thread- 在open3d的最新版本,
o3d.registration
应被替换为o3d.pipelines.registration
FOV = 6.28
in 222 line 应该改成你使用的雷达的扫描范围. The scale of MID360 is 360, so 2*pi (rad)- FOV_FAR = 30, switch to you lidar max distance
-
localization_MID360.launch
- 我们修改了
fastlio_mapping
可执行文件的所属包,我们直接使用fast_lio2中的mid360的launch文件启动 - 使用
args="$(arg map) 5 _frame_id:=map cloud_pcd:=map" />
in line 28,而不是/map
,即和你自己的tf树一致 - modified to
<arg name="map" default="/home/rm/ws_sentry/src/FAST_LIO/PCD/scans.pcd" />
, that used the PCD file in FAST_LIO pkg, If you have your own PCD file, you can change it to your own PCD file path.
- 我们修改了
Usage:
roslaunch livox_ros_driver2 msg_MID360.launch
roslaunch fast_lio_localization localization_MID360.launch
# 发布初始位姿(也可以用rviz,第一次尝试的时候更建议使用rviz)
rosrun fast_lio_localization publish_initial_pose.py 0 0 0 0 0 0
# also you could publish your initial point use RVIZ
# 这里的原点是你建图时候的起点。
地图转换主要是因为move_base是基于2d的栅格地图进行路径规划,而fast_lio默认的输出地图是三维点云的PCD文件,我们需要用一些方法获取2d的栅格地图,有以下几种方式:
- 用fast_lio构建好PCD地图后,将PCD地图转换为栅格地图
方式一:使用pcd_package开源功能包,参考离线将PCD地图转换为pgm栅格地图
方式二:使用octomap_server
功能包,离线将pcd转换成栅格地图,参考octomap_server使用--生成二维占据栅格地图和三维概率地图 - 在fast_lio构建三维点云地图的同时,也实时构建2d的栅格地图
本文的代码仓库里两种方式都有,常用的是第二种,如果你是打比赛之类的用的话,建议你建图的时候可以使用rosbag录制一下你的雷达的话题(imu+pcd),这样就算建图效果一般,也能离线重新rosbag play进行建图
sudo apt install ros-noetic-map-server
# 打开一个终端.(ctrl+alt+T)输入下面指令安装octomap.
sudo apt-get install ros-noetic-octomap-ros #安装octomap
sudo apt-get install ros-noetic-octomap-msgs
sudo apt-get install ros-noetic-octomap-server
# 安装octomap 在 rviz 中的插件
sudo apt-get install ros-noetic-octomap-rviz-plugins
# install move_base
sudo apt-get install ros-noetic-move-base
#如果使用方式一,还需将pcd2pgm拉到工作空间的src目录下编译
#本文代码仓库已经包含了该仓库,再sentry_tools/pcd2pgm,如果直接使用本文代码仓库,则不需要再拉
git clone https://github.com/Hinson-A/pcd2pgm_package.git
# pcd2pgm offline
# modify run.launch file in pcd2pgm such as the pcd file pasth etc.
# 修改 pcd2pgm中的run.launch文件,修改输入的pcd文件路径等
roslaunch pcd2pgm run.launch
使用octomap_server
功能包中的octomap_server_node
节点, 实时读取三维点云, 并生成栅格地图(这个方法其实也能离线将PCD转为栅格地图).
我们在 FAST_LIO
功能包中添加了 Pointcloud2Map.launch
, which will update the 2D mapping at same time, if you publish the PointCloud2 from FAST_LIO.
然后我们综合了 SLAM
, relocalization
, 实时构建栅格地图
三个功能, in only one launch file ==> sentry_build.launch
.
运行此功能包后,系统便会开始自动同步构建栅格地图.
如果你对你构建的三维点云地图和二维栅格地图满意,并希望保存下来:
- 三维点云地图pcd文件会在
sentry_build.launch
运行结束后自动保存到fast_lio/PCD文件夹下 - 如果你希望保存二位栅格地图,请运行以下命令:
# save the pgm map file
rosrun map_server map_saver map:=/<Map Topic> -f PATH_TO_YOUR_FILE/mymap
#eg,举例:
rosrun map_server map_saver map:=/projected_map -f /home/rm/ws_sentry/src/FAST_LIO/PCD/scans
move_base框架下,我们构建局部代价地图时,需要输入当前的laserscan的实时二位点云
The output format of 3d point clouds of FAST_LIO is /pointclouds2
. However, the input format of move_base
is /Laserscan
. Therefore, it is necessary to transfrom the /pointclouds2
to /Laserscan
.
我使用的包是pointcloud_to_laserscan.
The package we are using is pointcloud_to_laserscan.
有关这个包的博客 pointcloud_to_laserscan
:
blog about pointcloud_to_laserscan
: pointcloud_to_laserscan_blog
启动文件为PointsCloud2toLaserscan.launch
The launch file is PointsCloud2toLaserscan.launch
input:body
frame,即机器人在三维点云坐标系下的位姿
output: body_2d
frame,即机器人在二维栅格地图坐标系下的位姿
由于fast_lio_localization
输出的 body
frame是当前机器人在三维点云坐标系下的位姿,而move_base
需要的map
frame是二维栅格地图坐标系下的坐标body_2d
,因此需要进行坐标系转换。
此处需要根据你的雷达安装方式进行相应的转换。如:你的雷达是正向安装,或者正向稍微倾斜一点安装,即mid360的底部始终指向地面。这种情况下,对于坐标系的位置,只需要把body frame中的(x,y,z)取(x,y,0)赋给body_2d即可。同时,对于坐标系的姿态,把body frame 中的四元数(x,y,z,w)取(0,0,z,w)赋给body_2d即可。
这样最后的效果就是,3d中的机器人坐标系映射到二维body_2d
,位置信息z始终为0,而位置信息x,y始终跟随body
frame同步。同时姿态信息只有yaw轴会跟着3d中的机器人同步。这样坐标系body_2d
的xy轴就可以始终贴合地图,便于路径规划。
如果你的机器人将mid360反装,即底部指向天空,你需要修改tf的转换
此处的代码请见: \sentry_nav\src\Trans_TF_2d.cpp
如何修改tf发布和订阅请见: tf/Tutorials(ps: 没有找见很好的中文材料,且英文教程和源码比较官方详细)
我们主要采用开源的成熟框架move_base进行路径规划,避障。
主要是简单好用,资料丰富,对于小白来说比较合适。
自然也会有一些不足之处,暂时只是用move_base进行2d的避障和路径规划。如果需要上坡,或者z轴方向上有移动,需要参考更加复杂的路径规划算法,后续找到了鲁棒的方案再更新(2023-10-28)。
/Laserscans
, 即机器人坐标系的2维点云数据,- 如何用mid360获取,见上面第三点, 如果你需要避障,则必须提供此信息或者
/PointCloud
- 如何用mid360获取,见上面第三点, 如果你需要避障,则必须提供此信息或者
/tf
, 你的tf中需要至少包含以下坐标系/map
, 二维栅格地图坐标系, 在我的源码中名字为map
/odom
, 机器人里程计坐标系, 在我的源码中名字为camera_init
/base_link
, 机器人坐标系, 在我的源码中名字为body_2d
- PS: 如何看自己的坐标系是否正确呢?终端输入rqt,打开插件中的tf tree就能看到
/map
, 这个/map不是坐标系信息,而是使用map_server发布的栅格地图信息- 在我的代码中,调用map_server写在fast_lio_localization包中的sentry_localize.launch 文件
move_base_simple/goal
, 机器人希望到达的位置,可以使用rviz的红色箭头发布/odom
, 里程计信息- 在我的代码中, 在运行sentry_localize.launch文件时,会自动运行fast_lio发布里程计信息
- 发布
/cmd_vel
话题,控制机器人运动- 如果你是第一次使用ros,这个信息需要重点关注,因为输出的就是xyz方向的线速度和绕xyz轴旋转的角速度,有了这个消息就可以用控制机器人导航了,检查cmd_vel时,建议使用rqt中的波形图,检查是否正确
- 发布 global path 和local_path
- 发布 cost map, 即代价地图
其他信息不再过多阐述,建议参考move_base官方wiki | dwa_local_planner官方wiki | autolabor的ros教程(导航实现04_路径规划)
本文有关move_base的相关参数设置和代码请见 Sentry_Nav
功能包
-
build the map 构建地图
roslaunch roslaunch livox_ros_driver2 msg_MID360.launch
roslaunch fast_lio_localization sentry_build_map.launch
- 如果你认为当前构建的栅格地图还可以,运行
rosrun map_server map_saver map:=/projected_map -f /home/rm/ws_sentry/src/sentry_slam/FAST_LIO/PCD/scans
, 来保存栅格地图,注意,三维点云的PCD是运行结束后自动保存到在launch file中指定的路径下的
-
navigation 导航
-
check the 2d map in PCD dir, especially the
scans.yaml
, make sure theorigin
[x,y,yaw] can not be nan.
检查在fast_lio/PCD下中保存的2d地图scans.yaml
,确保其中参数origin
[x,y,yaw]不能是nan,如果yaw是nan的话,将其设置为0. -
roslaunch roslaunch livox_ros_driver2 msg_MID360.launch
-
roslaunch fast_lio_localization sentry_localize.launch
-
publish the initial pose by using
rviz
orrosrun fast_lio_localization publish_initial_pose.py 0 0 0 0 0 0
-
roslaunch sentry_nav sentry_movebase.launch
-
发布目标点
rviz
| publish the goal point throughrviz
-
using
rqt
to check the cmd_vel, in ros, the red axis delegate the x axis, the green one is the y axis, the blue one is the z axis. Besides, when theangular velocity
bigger than0
, it means that the robot shouldrotate anticlockwise
, and when the angular velocity smaller than 0, it means that the robot should rotate clockwise. 使用rqt
来检查cmd_vel,在ros中,红轴代表x轴,绿色的是y轴,蓝色的是z轴。当角速度大于0时,表示机器人应“逆时针旋转”,当角速度小于0时,表示机器人应“顺时针旋转”。
-
- why the robot can not reach the limit of velocity I
即机器人控制的决策层和通讯,这里采用的是串口
当你的导航部分完成后,系统理论会针对你给的目标点生成路径和cmd_vel的话题,至此,就可以控制机器人移动。
本文使用的是虚拟串口发送给下位机相关的数据,通讯协议是由我们自己定义的,仅供参考。 Blog about Serial in ros
Setting serial port permissions
sudo usermod -aG dialout $USER
# USRE is your username
# eg:
sudo usermod -aG dialout lau
rosrun sentry_serial sentry_send <serial port path>
#eg:
rosrun sentry_serial sentry_send /dev/ttyACM0
#the default seriial port path is /dev/ttyACM0, if you do not offer the param
决策层就是上位机通过机器人的设计需求和使用需求,决定机器人应该做什么,以及如何做。本导航系统的决策层的主要任务就是,控制机器人在某时刻,某地点,某事件中的目标位置选取。
正因为决策层是由机器人的使用需求决定的,而不同人的使用需求又大相径庭,此处只根据本项目的使用需求进行设计,即RoboMaster赛事的需求,仅供参考,若想使用至其他场景,请自行修改。
搭建实物场地中,所以决策层TBD。
本导航系统运行的最终的命令为:
- build the map 构建地图
roslaunch livox_ros_driver2 msg_MID360.launch
roslaunch fast_lio_localization sentry_build_map.launch
rosrun map_server map_saver map:=/projected_map -f /home/rm/ws_sentry/src/sentry_slam/FAST_LIO/PCD/scans
- navigation 导航(基于icp重定位)
roslaunch livox_ros_driver2 msg_MID360.launch
roslaunch fast_lio_localization sentry_localize.launch
# 用rviz发布初始位姿或者 `rosrun fast_lio_localization publish_initial_pose.py 0 0 0 0 0 0`
roslaunch sentry_nav sentry_movebase.launch
# 用rviz发布目标点
roslaunch sentry_serial sentry_serial.launch
- navigation 导航(基于里程计定位,由于fast_lio的精度不错,所以基本上没什么累计误差,但是初始摆放位置必须准确)
roslaunch livox_ros_driver2 msg_MID360.launch
roslaunch fast_lio_localization sentry_localize_odom.launch
# 用rviz发布初始位姿或者 `rosrun fast_lio_localization publish_initial_pose.py 0 0 0 0 0 0`
roslaunch sentry_nav sentry_movebase.launch
# 用rviz发布目标点
roslaunch sentry_serial sentry_serial.launch
由于文件中不可避免的会出现一些绝对路径的信息,还有诸如dev/ttyACM0这样应取决于你的硬件设备的相关文件,所以直接运行大概率会出问题,一般出问题后仔细查看报错,修改相关文件即可(这里因人而异,本章中无法做到非常详尽的指导,有过ros和c++开发经验应该很快能自己解决)
这里对于tf树做一点说明
- map->camera_init:tf转换由重定位icp发布,如果直接使用里程计定位,则是由static_transform_publisher静态发布。
- cmera_init->robot_foot_init:由static_transform_publisher静态发布,这样作用是mid360到机器人足端的转换,robot_foot_init意味着机器人足端的初始位姿
- camera_init->body:由fast_lio的里程计信息发布,就是雷达的初始位姿,到雷达当前位姿的关系
- body->body_foot:主要作用是将雷达的位姿转换到机器人足端,也是静态发布
- map->body_2d:由Trans_body_2d.cpp发布,主要作用是将body投影到2dmap上(如果斜着装或者倒着装,建议在move_base中把这个换成body_foot)
上面的内容可以作为导航系统的雏形,或者说是初学者的快速入门。得益于ROS不同功能包之间的良好的解耦,后续可以针对上面slam部分,避障部分,路径规划部分独立修改并优化,后续的优化或修改,可以参考以下内容:
由于move_base的输出/cmd_vel经常有速度的突变,且控制频率不高的条件下,会导致机器人运动卡顿,为了平滑机器人的运动,我们使用velocity_smoother_ema
包(基于ema算法)对于输出的速度进行平滑处理,此处也可以使用yocs_velocity_smoother
.
git clone https://github.com/seifEddy/velocity_smoother_ema.git
velocity_smoother_ema的启动已经添加至sentry_movebase.launch file,并且现在串口订阅的是滤波后的速度即/smooth_cmd_cel
- 使用rosparam传递参数
- 现在串口订阅
/smooth_cmd_cel
话题 - 增加了一个launch file并设定了参数
rosbag record -a -O ~/ws_sentry/mid360_bag/test.bag
roslaunch livox_ros_driver2 msg_MID360.launch
For the Localization
the delay of the icp-relocalization is 20ms
the delay of the fast_lio is 1.6ms
add a launch file that only using fast_lio odometry for localization
采用时候fast_lio构建三维点云地图的同时,将点云数据用octomap压至二维地图,同时构建的地图可以确保relocalize在三维点云中的机器人位姿可以完全映射到二位栅格地图中使用
再fast_lio中,或者说rviz的显示中,都是以camera_init为基坐标,也就是启动fast_lio时的雷达位姿作为基坐标,所以当你侧着放的时候,点云也是歪的,如图:
我们在sentry_build_map.launch文件中,加入如下代码:
<!-- 发布一个雷达body到机器人足端body_foot的静态映射 -->
<node pkg="tf2_ros" type="static_transform_publisher" name="tf_pub_1" args="0 0 0.3 0 -0.645 0 body body_foot" />
<!-- 发布一个雷达初始位置camera_init到机器人足端初始位置body_init的静态映射 -->
<node pkg="tf2_ros" type="static_transform_publisher" name="tf_pub_2" args="0 0 0.3 0 -0.645 0 camera_init foot_init" />
这里补充一下,在fast_lio中的mid360.yaml中的外参
extrinsic_est_en: false # true: enable the online estimation of IMU-LiDAR extrinsic
extrinsic_T: [ -0.011, -0.02329, 0.04412 ]
extrinsic_R: [ 1, 0, 0,
0, 1, 0,
0, 0, 1]
指的是,使用外部的陀螺仪的话,雷达到外部陀螺仪的转换,而mid360的陀螺仪是内置在360里面的,且方向和点云方向是一致的,所以不能通过修改此处去改变陀螺仪方向
同时livox_ros_driver2中的MID360_config.json里面的
"lidar_configs" : [
{
"ip" : "192.168.1.12",
"pcl_data_type" : 1,
"pattern_mode" : 0,
"extrinsic_parameter" : {
"roll": 0.0,
"pitch": 0.0,
"yaw": 0.0,
"x": 0,
"y": 0,
"z": 0
}
}
]
这里面的外参,只能改变点云相对陀螺仪的位姿,而不能将陀螺仪映射到你期望的pose去
2023-12-21更新:
由于机械结构设计的改变,我的机器人的雷达安装位置已经改为倒置,由于修改内容较多,故另起了一个分支invert_lidar。主分支现现在是基础的正常安装的流程记录。
由于比赛需要和机械设计的原因,我们的雷达安装在yaw轴上,同时yaw轴还在不断自旋,自旋的同时向xy方向全向移动,这个时候要注意控制频率的问题。
一般局部路径规划器的输出都是10-15hz,也就是延迟达到0.1s,如果同时在自旋的话,这0.1秒会带来很大的角度偏差!一般下位机的电机控制频率可能在500-1000hz,这种情况下,需要下位机在0.1秒内,根据距离上一时刻接受导航的串口数据的时间差,叠加上旋转过的角度,解算出此时刻的速度方向。
- 等机械结构设计完成,实际对比一下倒装不自旋,斜装并自旋的定位效果
- 对比一下只用里程计定位的效果,即不用icp
- 尝试加入robot_localization的定位,即里程计高频输入,icp隔段时间融合消除累计误差
- 尝试一下更高频的定位方法后的,move_base实车的效果
- 把move_base扬了,换成cmu的autonomous_exploration_development_environment并使用FAR planner