• 中国科技核心期刊
  • JST收录期刊
  • Scopus收录期刊
  • DOAJ收录期刊

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于视觉-惯性-压力融合的水下定位方法研究

张箭 胡桥 夏寅 石麟 李洋阳

张箭, 胡桥, 夏寅, 等. 基于视觉-惯性-压力融合的水下定位方法研究[J]. 水下无人系统学报, xxxx, x(x): x-xx doi: 10.11993/j.issn.2096-3920.2024-0061
引用本文: 张箭, 胡桥, 夏寅, 等. 基于视觉-惯性-压力融合的水下定位方法研究[J]. 水下无人系统学报, xxxx, x(x): x-xx doi: 10.11993/j.issn.2096-3920.2024-0061
ZHANG Jian, HU Qiao, XIA Yin, SHI Lin, LI Yangyang. Research on Underwater Positioning Method Based on Vision-Inertia-Pressure Fusion[J]. Journal of Unmanned Undersea Systems. doi: 10.11993/j.issn.2096-3920.2024-0061
Citation: ZHANG Jian, HU Qiao, XIA Yin, SHI Lin, LI Yangyang. Research on Underwater Positioning Method Based on Vision-Inertia-Pressure Fusion[J]. Journal of Unmanned Undersea Systems. doi: 10.11993/j.issn.2096-3920.2024-0061

基于视觉-惯性-压力融合的水下定位方法研究

doi: 10.11993/j.issn.2096-3920.2024-0061
基金项目: 陕西省秦创原队伍建设项目资助(S2022-ZC-QCYK-0178).
详细信息
    作者简介:

    张箭:张 箭(1999-), 男, 在读硕士, 研究方向为水下多传感器融合定位

    通讯作者:

    胡 桥(1977-), 男, 博士, 教授, 研究方向为海洋智能感知与仿生机器人.

  • 中图分类号: TJ630.1; N945.15

Research on Underwater Positioning Method Based on Vision-Inertia-Pressure Fusion

  • 摘要: 机器人在水下非结构化环境作业时, 难以依赖外部基站进行定位, 机器人多传感器融合自主定位在此类环境具有重要应用价值。文中针对水下多传感器融合定位中视觉定位稳定性差、惯性导航存在较大漂移等问题, 提出一种紧组合视觉、惯性、压力传感器的多传感器融合定位方法。通过图优化方法进行多传感器融合, 基于深度信息对视觉惯性数据进行误差辨识以提升融合数据质量; 针对融合定位过程中出现的漂移和定位丢失问题, 采用深度传感器进行权重分配以提供更加细致的系统初始化, 同时引入闭环检测和重定位方法, 有效改善漂移和定位丢失的问题。通过试验验证发现, 所提出的融合定位算法相较于视觉惯性融合定位方法精度提升48.4%, 具有更好的精度和鲁棒性, 实际工况定位精度可达厘米级。

     

  • 图  1  水下典型非结构化环境

    Figure  1.  Typical unstructured environment underwater

    图  2  融合定位算法流程

    Figure  2.  Fusion positioning algorithm

    图  3  初始化算法流程

    Figure  3.  Initialization algorithm process

    图  4  视觉-惯性-压力组合定位算法

    Figure  4.  Vision-inertia-pressure combined positioning algorithm

    图  5  考古遗址中不同定位方法定位精度对比

    Figure  5.  Comparative analysis of positioning accuracy of archaeological sites

    图  6  水下沉船环境下不同定位方法定位精度对比

    Figure  6.  Comparative analysis of underwater ecological

    图  7  试验环境图

    Figure  7.  Experimental environment diagram

    图  8  无重定位和回环检测模块下定位精度

    Figure  8.  Positioning accuracy without relocation and loopback detection module

    图  9  完整系统定位精度

    Figure  9.  Complete system positioning accuracy

    图  10  视觉-惯性融合定位精度

    Figure  10.  Visual-inertial fusion positioning accuracy

    图  11  融合算法定位精度分析

    Figure  11.  Fusion algorithm positioning accuracy analysis

    表  1  传感器参数表

    Table  1.   Sensor parameter table

    型号 ZED2
    相机 分辨率 3 840×1 080
    帧率 30帧/s
    FOV/(°) 94.5
    型号 MEMS-MPU-9250
    IMU 陀螺仪频率/Hz 200
    加速度计频率/Hz 200
    磁力计频率/Hz 200
    下载: 导出CSV

    表  2  融合算法精度测试结果

    Table  2.   Fusion algorithm accuracy test results

    运动形式最大误差/m
    直航0.064
    转向0.028
    快速机动0.127
    下载: 导出CSV
  • [1] WANG Y, MA X, WANG J, et al. Pseudo-3D vision-inertia based underwater self-localization for AUVs[J]. IEEE Transactions on Vehicular Technology, 2020, 69(7): 7895-7907. doi: 10.1109/TVT.2020.2993715
    [2] SMITHANIK J R, ATKINS E M, SANNER R M. Visual positioning system for an underwater space simulation environment[J]. Journal of guidance, control, and Dynamics, 2016, 29(4): 858-869.
    [3] CHENG C, WANG C, YANG D, et al. Underwater localization and mapping based on multi-beam forward looking sonar[J]. Frontiers in Neurorobotics, 2022, 15: 801956. doi: 10.3389/fnbot.2021.801956
    [4] SHEN Y, ZHAO C, LIU Y, et al. Underwater optical imaging: Key technologies and applications review[J]. IEEE Access, 2021, 9: 85500-85514. doi: 10.1109/ACCESS.2021.3086820
    [5] RAVEENDRAN S, PATIL M D, BIRAJDAR G K. Underwater image enhancement: a comprehensive review, recent trends, challenges and applications[J]. Artificial Intelligence Review, 2021, 54: 5413-5467. doi: 10.1007/s10462-021-10025-z
    [6] LI C, GUO C, REN W, et al. An underwater image enhancement benchmark dataset and beyond[J]. IEEE transactions on image processing, 2019, 29: 4376-4389.
    [7] SHAUKAT N, LI A Q, REKLEITIS I. Svin2: An underwater slam system using sonar, visual, inertial, and depth sensor[C]//2019 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). Macau: IEEE, 2019: 1861-1868.
    [8] WANG X, FAN X, SHI P, et al. An overview of key SLAM technologies for underwater scenes[J]. Remote Sensing, 2023, 15(10): 2496. doi: 10.3390/rs15102496
    [9] HU K, WANG T, SHEN C, et al. Overview of underwater 3D reconstruction technology based on optical images[J]. Journal of Marine Science and Engineering, 2023, 11(5): 949. doi: 10.3390/jmse11050949
    [10] LEUTENEGGER S, FURGALE P, RABAUD V, et al. Keyframe-based visual-inertial slam using nonlinear optimization[J]. Proceedings of Robotis Science and Systems, 2023, 51: 5213-5667.
    [11] QIN T, LI P, SHEN S. Vins-mono: A robust and versatile monocular visual-inertial state estimator[J]. IEEE Transactions on Robotics, 2018, 34(4): 1004-1020. doi: 10.1109/TRO.2018.2853729
    [12] MOURIKIS A I, ROUMELIOTIS S I. A multi-state constraint Kalman filter for vision-aided inertial navigation[C]//Proceedings 2007 IEEE International Conference on Robotics and Automation. Roma, Italy: IEEE, 2017.
    [13] SIBLEY G, MATTHIES L, SUKHATME G. Sliding window filter with application to planetary landing[J]. J. Field Robot, 2019, 27(5): 587-608.
    [14] 王霞, 左一凡. 视觉SLAM研究进展[J]. 智能系统学报, 2020, 15(5): 825-834. doi: 10.11992/tis.202004023

    WANG X, ZUO Y F. Advances in visual SLAM research[J]. CAAI Transactions on Intelligent Systems, 2020, 15(5): 825-834. doi: 10.11992/tis.202004023
    [15] MEI C, RIVES P. Single view point omnidirectional camera calibration from planar grids[C]//Proceedings 2007 IEEE International Conference on Robotics and Automation. Roma, Italy: IEEE, 2007.
    [16] FERRERA M, CREUZE V, MORAS J, et al. AQUALOC: An underwater dataset for visual-inertial-pressure localization[J]. The International Journal of Robotics Research, 2019, 38(14): 1549-1559. doi: 10.1177/0278364919883346
    [17] LIN Y, QIN T, GAO W, et al. Autonomous aerial navigation using monocular visual inertial fusion[J]. J. Field Robot, 2020, 35: 23-51.
    [18] JIANG H, WANG W, SHEN Y, et al. Efficient planar pose estimation via UWB measurements[C]//2023 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2023: 1954-1960.
  • 加载中
图(11) / 表(2)
计量
  • 文章访问数:  9
  • HTML全文浏览量:  5
  • PDF下载量:  1
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-04-03
  • 修回日期:  2024-05-27
  • 录用日期:  2024-06-04
  • 网络出版日期:  2024-11-11

目录

    /

    返回文章
    返回
    服务号
    订阅号