停车场自主代客泊车视觉SLAM框架

汽车安全 2年前 (2022) admin
419 0 0

停车场自主代客泊车视觉SLAM框架来源 | 刘贵涛@知乎

知圈 | 进“底盘社群”请加微yanzhi-6,备注底盘

先快速浏览下AVP-SLAM代码复现版本的建图及定位效果吧。建图效果如下图所示:

停车场自主代客泊车视觉SLAM框架


基于先验地图的定位效果如下图所示:


停车场自主代客泊车视觉SLAM框架



建图及定位的详细效果可访问下面的视频链接:


https://www.bilibili.com/video/BV11R4y137xb/


接下来将从AVP-SLAM-PLUS原理、仿真环境搭建、实验结果、致谢等四部分进行介绍。



1. AVP-SLAM-PLUS原理


AVP-SLAM的pipeline如下图所示,摘自AVP-SLAM论文。


停车场自主代客泊车视觉SLAM框架


复现版本AVP-SLAM-PLUS的pipeline如图所示


停车场自主代客泊车视觉SLAM框架


AVP-SLAM-PLUS是一款同时支持RGB相机和RGBD相机的自主泊车环视视觉SLAM系统。


除了提供SLAM功能,该系统还支持基于先验地图的定位(这点AVP-SLAM也有)。


下面以环视RGB相机为例,介绍下AVP-SLAM-PLUS系统的工作流程:


当系统接收到环视相机发送的图像(预先进行图像时间同步)后,依据IPM原理,转化为鸟瞰图点云。IPM原理可参考AVP-SLAM原论文。


将多个相机的鸟瞰图点云拼接成一张点云后,将该点云与地图进行配准,求解当前帧机器人的位姿。配准方式可灵活选用NDT或ICP。


当较上一个关键帧运动距离超过阈值时,创建新的关键帧,并将新关键帧的点云加入地图中。


当系统执行完毕后,保存地图到指定pcd文件中。利用保存的地图,即可进行基于先验地图的重定位。


环视RGBD相机原理与RGB相机原理相似,仅在点云拼接原理上有所不同。


环视RGBD相机利用相机外参,将其他相机的点云转到同一个相机的坐标上,组成一帧环视的点云。



2. 仿真环境搭建


为了检验AVP-SLAM-PLUS系统的性能,使用gazebo仿真环境进行实验。仿真环境主要包括两部分,小车模型和带停车位的路面环境。


仿真小车借鉴了ros_exploring的开源小车仿真模型。

https://github.com/huchunxu/ros_exploring


路面模型借鉴了AVP-SLAM-SIM的开源道路环境仿真模型。

https://github.com/TurtleZhong/AVP-SLAM-SIM



3. 实验


环视RGB相机建图实验效果如下


停车场自主代客泊车视觉SLAM框架



环视RGB相机基于先验地图重定位,实验效果如下


停车场自主代客泊车视觉SLAM框架



4. 致谢:


感谢秦通等大佬的研究工作,感谢ros_exploring和AVP-SLAM-SIM的开源仿真环境。


最后,希望这项工作能抛砖引玉,SLAM领域越来越欣欣向荣。


点击文末,阅读原文,关注作者知乎!


停车场自主代客泊车视觉SLAM框架

原文始发于微信公众号(焉知智能汽车):停车场自主代客泊车视觉SLAM框架

版权声明:admin 发表于 2022年11月30日 下午9:38。
转载请注明:停车场自主代客泊车视觉SLAM框架 | CTF导航

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...