查 询 高级检索+
共找到相关记录2条
    全 选
    显示方式:|
    • 一种多焦距动态立体视觉 SLAM

      2021(11):200-209.

      关键词:同时定位与建图多焦距立体视觉实例分割动态对象检测
      摘要 (161)HTML (0)PDF 13.70 M (1024)收藏

      摘要:现有的双目同步定位与建图(SLAM)都使用标准立体相机,所处环境为静态的假设会影响其在动态环境中的精度。 提出了一种多焦距动态立体视觉 SLAM 方法,它克服了标准立体相机无法兼顾远距离和宽视场感知场景的缺点,并去除了动态物体对 SLAM 的影响。 具体来说,对传统的立体校正方法进行了改进,并使用校正参数修正了特征点的位置,而不是整张图像,还提出了一种自适应特征提取和匹配方法以增加多焦距图像的特征匹配数量。 综合使用多视图几何、区域特征流和相对距离检测动态对象,剔除动态对象上的特征点。 在公开数据集 KITTI 上,该方法相对 ORB-SLAM3 和 DynaSLAM 的定位精度都提高了6. 97% ,在自建数据集中,该方法的定位精度比 ORB-SLAM3 提高了 26. 64% ,比 DynaSLAM 提高了 32. 09% 。

    • 基于立体视觉与激光雷达的车辆目标外形位置融合算法研究

      2021(10):209-219.

      关键词:立体视觉激光雷达目标检测传感器融合
      摘要 (283)HTML (0)PDF 21.48 M (946)收藏

      摘要:环境感知技术是智能汽车的关键技术之一,单独使用视觉传感器或激光雷达在目标检测和目标定位方面存在局限性。本文在图像和激光雷达目标检测的基础上,提出了一种基于立体视觉与激光雷达的车辆目标外形位置融合算法。 首先,采用深度学习方法对图像和点云数据进行目标检测,再通过基于目标三维点和目标种类的目标外形位置估计方法确定目标的外形和位置,最后在数据关联后对同一时刻的图像目标及点云目标进行融合处理,获取目标的外形和位置。 在 KITTI 数据集以及实际道路场景上验证了本文算法,实验结果表明,本文方法在检测精度上分别比 YOLOv3 网络、Point-GNN 网络提高了 5. 72% 和1. 8% 。 另外,在 20 m 内目标外形及位置平均误差分别为 4. 34% 和 4. 52% 。

    上一页1下一页
    共1页2条记录 跳转到GO
出版年份