基于级联深度神经网络的车辆位姿融合估计
DOI:
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

TH701

基金项目:

国家自然科学基金青年科学基金项目(4190402)、国家自然科学基金(61973079)、未来网络科研基金项目(FNSRFP2021YB29)资助


Fusion estimation of vehicle pose based on the cascaded deep neural network
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    在复杂的城市环境下,全球导航卫星系统信号失效时,现有利用单目相机或惯性导航系统估计车辆位姿的方法存在严 重的累积误差。 针对以上问题,提出了一种基于级联深度神经网络(CDNN)的车辆位姿融合估计算法。 首先,设计了一种级联 深度神经网络,减小单目相机因尺度模糊和尺度漂移造成的累积误差;其次,为了减小引入的器件噪声,利用简化惯性传感器系 统(RISS)获取车辆横向、纵向加速度和横摆角速度。 为了减小系统中不确定噪声的影响,利用 H∞ 滤波融合 CDNN 和 RISS 的 输出,在准确估计车辆位姿的同时保证高频输出。 在 KITTI 数据集上的实验结果表明,与基于卡尔曼滤波的方法相比,本文算 法估计得到的东向位置均方根误差(RMSE)减小了 41. 3% ,北向位置 RMSE 减小了 70. 6% ,航向角 RMSE 减小了 66. 6% 。

    Abstract:

    In a complex urban environment, when the GNSS signal fails, the existing methods for estimating the vehicle pose using a monocular camera or an inertial navigation system suffer serious cumulative errors. To address these issues, a vehicle pose fusion estimation algorithm based on the cascaded deep neural network ( CDNN) is proposed. First, CDNN is designed to reduce the cumulative error caused by scale blur and scale drift in monocular cameras. Secondly, to reduce the introduced device noise, a simplified inertial sensor system (RISS) is used to obtain the vehicle lateral and longitudinal acceleration and yaw rate. To reduce the influence of uncertain noise in the system, H∞ filtering is used to fuse the outputs of CDNN and RISS to accurately estimate the vehicle pose while keeping high-frequency output. Compared with the method based on the Kalman filter, experimental results on the KITTI dataset show that, the root mean square error (RMSE) of the easting position estimated by the proposed algorithm is reduced by 41. 3% , and the RMSE of the estimated northing position is reduced by 70. 6% , and the RMSE of the estimated heading angle is reduced by 6 K 6 e . y 6 w % o .

    参考文献
    相似文献
    引证文献
引用本文

常 彬,李 旭,徐启敏,李 娜,胡玮明.基于级联深度神经网络的车辆位姿融合估计[J].仪器仪表学报,2022,43(5):57-67

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:
  • 最后修改日期:
  • 录用日期:
  • 在线发布日期: 2023-02-06
  • 出版日期: