en
×

分享给微信好友或者朋友圈

使用微信“扫一扫”功能。
作者简介:

王力锋(1993-),男,硕士,工程师,主要从事水面水下无人装备控制系统研究。

通讯作者:

丛大纲(1970-),男,硕士,副教授,主要从事汽车自动驾驶、汽车安全等方向研究。

中图分类号:TP249

文献标识码:A

文章编号:2096-5753(2024)04-0356-09

DOI:10.19838/j.issn.2096-5753.2024.04.001

参考文献 1
马腾,丁硕硕,范佳佳,等.海底地形匹配高效质点滤波导航方法[J].数字海洋与水下攻防,2021,4(6):439-445.
参考文献 2
任翀,王峰,刘小涯,等.深海生物采样工具研制报告[J].科技创新导报,2016,13(5):175.
参考文献 3
李航洲,李保生,张康乐,等.“深海勇士”号载人潜水器运维保障系统设计及应用[J].舰船科学技术,2022,44(20):182-185.
参考文献 4
许裕良,杜江辉,雷泽宇,等.水下机器人在渔业中的应用现状与关键技术综述[J].机器人,2023,45(1):110-128.
参考文献 5
朱益贤,马腾,范佳佳,等.融合测深/测距信息的水下同步定位与建图技术[J].无人系统技术,2023,6(4):10-21.
参考文献 6
马腾,李晔,赵玉新,等.AUV 的图优化海底地形同步定位与建图方法[J].导航定位与授时,2020,7(2):42-49.
参考文献 7
MCCONNELL J,CHEN F F,ENGLOT B.Overhead image factors for underwater sonar-based SLAM[J].IEEE Robotics and Automation Letters,2022,7(2):4901-4908.
参考文献 8
ZHANG S,ZHAO S L,AN D,et al.Visual SLAM for underwater vehicles:a survey[J].Computer Science Review,2022,46(C):100510.
参考文献 9
PALOMER A,RIDAO P,RIBAS D.Multibeam 3D underwater SLAM with probabilistic registration[J].Sensors,2016,16(4):s16040560.
参考文献 10
TAHERI H,XIA Z C.SLAM;definition and evolution[J].Engineering Applications of Artificial Intelligence,2021,97:104032.
参考文献 11
CARLEVARIS-BIANCO N,KAESS M,EUSTICE R M.Generic node removal for factor-graph SLAM[J].IEEE Transactions on Robotics,2014,30(6):1371-1385.
参考文献 12
AHN S H,CHOI J,DOH N L,et al.A practical approach for EKF-SLAM in an indoor environment:fusing ultrasonic sensors and stereo camera[J].Autonomous Robots,2008,24:315-335.
参考文献 13
YAN Y P,WONG S F.A navigation algorithm of the mobile robot in the indoor and dynamic environment based on the PF-SLAM algorithm[J].Cluster Computing,2019,22:14207-14218.
参考文献 14
STRASDAT H,MONTIEL J M M,DAVISON A J.Visual SLAM:why filter?[J].Image and Vision Computing,2012,30(2):65-77.
参考文献 15
TAKETOMI T,UCHIYAMA H,IKEDA S.Visual SLAM algorithms:a survey from 2010 to 2016[J].IPSJ Transactions on Computer Vision and Applications,2017,9:1-11.
参考文献 16
DAVISON A J,REID I D,MOLTON N D,et al.MonoSLAM:real-time single camera SLAM[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(6):1052-1067.
参考文献 17
WANG X,FAN X,SHI P,et al.An overview of key SLAM technologies for underwater scenes[J].Remote Sensing,2023,15(10):2496.
参考文献 18
MA T,LI Y,WANG R P,et al.AUV robust bathymetric simultaneous localization and mapping[J].Ocean Engineering,2018,166:336-349.
参考文献 19
LING Y,LI Y,MA T,et al.Active bathymetric SLAM for autonomous underwater exploration[J].Applied Ocean Research,2023,130:103439.
参考文献 20
PAULL L,SAEEDI S,SETO M,et al.AUV navigation and localization:a review[J].IEEE Journal of Oceanic Engineering,2013,39(1):131-149.
参考文献 21
CHEN P Y,LI Y,SU Y M,et al.Review of AUV underwater terrain matching navigation[J].Journal of Navigation,2015,68(6):1155-1172.
参考文献 22
HIDALGO F,BRÄUNL T.Review of underwater SLAM techniques[C]//6th International Conference on Automation,Robotics and Applications(ICARA).Queenstown:IEEE,2015.
参考文献 23
LI J,KAESS M,EUSTICE R M,et al.Pose-graph SLAM using forward-looking sonar[J].IEEE Robotics and Automation Letters,2018,3(3):2330-2337.
参考文献 24
MU X K,YUE G,ZHOU N,et al.Occupancy grid-based AUV SLAM method with forward-looking sonar[J].Journal of Marine Science and Engineering,2022,10(8):1056.
参考文献 25
HE B,LIANG Y,FENG X,et al.AUV SLAM and experiments using a mechanical scanning forward-looking sonar[J].Sensors,2012,12(7):9386-9410.
参考文献 26
CHENG C,WANG C,YANG D,et al.Underwater SLAM based on forward-looking sonar[C]//Cognitive Systems and Signal Processing(ICCSIP 2020).Zhuhai:Springer Singapore,2021.
参考文献 27
GASPAR A R,MATOS A.Feature-based place recognition using forward-looking sonar[J].Journal of Marine Science and Engineering,2023,11(11):11112198.
参考文献 28
CHO Y G,KIM A.Visibility enhancement for underwater visual SLAM based on underwater light scattering model[C]//2017 IEEE International Conference on Robotics and Automation(ICRA).Singapore:IEEE,2017.
参考文献 29
AULINAS J,CARRERAS M,LLADO X,et al.Feature extraction for underwater visual SLAM[C]//OCEANS 2011-MTS/IEEE.Santander:IEEE,2011.
参考文献 30
KIM A,EUSTICE R M.Real-time visual SLAM for autonomous underwater hull inspection using visual saliency[J].IEEE Transactions on Robotics,2013,29(3):719-733.
参考文献 31
BONIN-FONT F,BURGUERA A B.NetHALOC:a learned global image descriptor for loop closing in underwater visual SLAM[J].Expert Systems,2021,38(2):e12635.
参考文献 32
XIN Z C,WANG Z,YU Z B,et al.ULL-SLAM:underwater low-light enhancement for the front-end of visual SLAM[J].Frontiers in Marine Science,2023,10:1133881.
参考文献 33
MASSOT-CAMPOS M,OLIVER G,BODENMANN A,et al.Submap bathymetric SLAM using structured light in underwater environments[C]//2016 IEEE/OES Autonomous Underwater Vehicles(AUV).Buenos Aires:IEEE,2016.
参考文献 34
BARKBY S,WILLIAMS S,PIZARRO O,et al.An efficient approach to bathymetric SLAM[C]//2009 IEEE/RSJ International Conference on Intelligent Robots and Systems.St.Louis:IEEE,2009.
参考文献 35
ROMAN C,SINGH H.Improved vehicle based multibeam bathymetry using sub-maps and SLAM[C]//2005 IEEE/RSJ International Conference on Intelligent Robots and Systems.Edmonton:IEEE,2005.
参考文献 36
STUCKEY R A.Navigational error reduction of underwater vehicles with selective bathymetric SLAM[J].IFAC Proceedings Volumes,2012,45(5):118-125.
参考文献 37
TORROBA I,SPRAGUE C I,BORE N,et al.PointNetKL:deep inference for GICP covariance estimation in bathymetric SLAM[J].IEEE Robotics and Automation Letters,2020,5(3):4078-4085.
参考文献 38
PALOMER A,RIDAO P,RIBAS D,et al.Bathymetry-based SLAM with difference of normals point-cloud subsampling and probabilistic ICP registration[C]//OCEANS 2013-MTS/IEEE.Bergen:IEEE,2013.
参考文献 39
MA T,LI Y,ZHAO Y X,et al.Efficient bathymetric SLAM with invalid loop closure identification[J].IEEE/ASME Transactions on Mechatronics,2020,26(5):2570-2580.
参考文献 40
BICHUCHER V,WALLS J M,OZOG P,et al.Bathymetric factor graph SLAM with sparse point cloud alignment[C]//OCEANS 2015-MTS/IEEE.Washington:IEEE,2015.
参考文献 41
ZHANG Q Y,KIM J.TTT SLAM:a feature-based bathymetric SLAM framework[J].Ocean Engineering,2024,294:116777.
参考文献 42
CAI Y Y,OU Y,QIN T F.Improving SLAM techniques with integrated multi-sensor fusion for 3D reconstruction[J].Sensors,2024,24(7):s24072033.
参考文献 43
LI D D,JI D X,LIU J,et al.A multi-model EKF integrated navigation algorithm for deep water AUV[J].International Journal of Advanced Robotic Systems,2016,13(1):3.
参考文献 44
PARNUM I M,SAUNDERS B J,STOTT M,et al.The accuracy of length measurements made using imaging SONAR is inversely proportional to the beamwidth[J].Methods in Ecology and Evolution,2024:1-12.
参考文献 45
GONZÁLEZ-GARCÍA J,GÓMEZ-ESPINOSA A,CUAN-URQUIZO E,et al.Autonomous underwater vehicles:localization,navigation,and communication for collaborative missions[J].Applied Sciences,2020,10(4):1256.
参考文献 46
LAJOIE P Y,BELTRAME G.Swarm-SLAM:sparse decentralized collaborative simultaneous localization and mapping framework for multi-robot systems[J].IEEE Robotics and Automation Letters,2023,9(1):475-482.
参考文献 47
CHEN W F,WANG X Y,GAO S P,et al.Overview of multi-robot collaborative SLAM from the perspective of data fusion[J].Machines,2023,11(6):11060653.
参考文献 48
DRUPT J,COMPORT A I,DUNE C,et al.MAM3SLAM:towards underwater robust multi-agent visual SLAM[J].Ocean Engineeting,2024,302:117643.
参考文献 49
ANGUITA D,BRIZZOLARA D,PARODI G,et al.Optical wireless underwater communication for AUV:preliminary simulation and experimental results[C]//OCEANS 2011-MTS/IEEE.Santander:IEEE,2011.
参考文献 50
CONG Z,MA T,LI Y,et al.A storage-saving quadtree-based multibeam bathymetry map representation method[J].Journal of Marine Science and Engineering,2023,11(4):11040709.
参考文献 51
CAI S B,ZHU Y,WANG T,et al.Data collection in underwater sensor networks based on mobile edge computing[J].IEEE Access,2019,7:65357-65367.
参考文献 52
DU J X,HAN G J,LIN C.An edge-computing-enabled trust mechanism for underwater acoustic sensor networks[J].IEEE Communications Standards Magazine,2022,6(1):44-51.
参考文献 53
MONTEMERLO M,THRUN S,KOLLER D,et al.FastSLAM:a factored solution to the simultaneous localization and mapping problem[C]//18th National Conference on Artificial Intelligence.Edmonton:The Association for the Advancement of Artificial Intelligence,2002.
参考文献 54
MO J,ISLAM M J,SATTAR J.Fast direct stereo visual SLAM[J].IEEE Robotics and Automation Letters,2021,7(2):778-785.
参考文献 55
赵洋,刘国良,田国会,等.基于深度学习的视觉SLAM综述[J].机器人,2017,39(6):889-896.
参考文献 56
LIU W B,SUN W,LIU Y.DLOAM:real-time and robust LiDAR SLAM system based on CNN in dynamic urban environments[J].IEEE Open Journal of Intelligent Transportation Systems,2021:1-12.
参考文献 57
CHEN W F,SHANG G T,JI A H,et al.An overview on visual SLAM:from tradition to semantic[J].Remote Sensing,2022,14(13):14133010.
参考文献 58
MA T J,BAI N Y,SHI W T,et al.Research on the application of visual SLAM in embedded GPU[J].Wireless Communications and Mobile Computing,2021,2021:6691262.
目录contents

    摘要

    水下同步定位与地图构建(SLAM)技术是水下机器人探索未知区域的重要手段,在复杂海洋环境中广泛应用。水下 SLAM 主要分为 3 种主流技术:前视声呐 SLAM、水下光学 SLAM 及基于测深信息的 SLAM。首先,对这些技术在海底地形测绘和深海资源勘探中的应用进行了总结,不同的技术显示出不同的适用性和准确性,其中多波束声呐技术因其高分辨率和大范围覆盖能力,在大规模海底地图构建中展现了优越性。然后,总结了人工智能技术等关键技术在处理复杂海底数据中的应用,例如通过神经网络优化的数据处理提高了地图构建的效率和精度。最后,对未来的 SLAM 技术进行了展望,未来通过算法优化和硬件发展,进一步提升数据处理速度和降低能耗。

    Abstract

    Underwater Simultaneous Localization and Mapping(SLAM)is a crucial means for underwater robots to explore unknown areas,and is widely applied in complex marine environments. Underwater SLAM is primarily divided into three mainstream technologies:forward-looking sonar SLAM,underwater optical SLAM, and bathymetric SLAM. Firstly,a summary of these technologies in the application of seabed topography surveying and deep-sea resource exploration is provided. Different technologies show different applicability and accuracies, among which multibeam sonar technology demonstrats superiority in large-scale seabed mapping due to its high resolution and extensive coverage capabilities. Additionally,the application of key technologies such as artificial intelligence in processing complex underwater data is summarized,for instance,enhanced map construction efficiency and precision through neural network-optimized data processing. Lastly,the future of SLAM technology is envisioned. In the future,algorithm optimization and hardware development will further improve data processing speed and reduce energy consumption.

  • 0 引言

  • 在过去的几十年中,随着海洋探索和资源开发的需求不断增长,水下机器人技术已成为关键的研究和应用领域。水下机器人在执行任务如海底地图构建[1]、生物采样[2]、考古发掘[3]和环境监测[4]中扮演着至关重要的角色。这些任务通常需要机器人在未知或动态变化的水下环境中自主导航和地图构建能力,这正是水下同步定位与地图构建 (SLAM)技术的应用之处[5]

  • 水下 SLAM 技术使得无人潜水器(AUV)和遥控潜水器(ROV)能够在缺乏全球定位系统 (GPS)支持的环境中,通过解析环境特征来估计自身位置,同时构建环境的地图[6]。与陆地或空中环境的 SLAM 相比,水下 SLAM 面临更为严峻的挑战,包括但不限于光线在水中的强烈衰减、声波传播的复杂性以及水流和悬浮物的干扰。

  • 目前,主要的水下 SLAM 技术可分为 3 类:前视声呐 SLAM[7]、水下光学 SLAM[8]和基于测深信息的 SLAM[9]。这些技术各有优势和局限,选择适当的技术依赖于特定应用的需求和环境条件。例如,前视声呐 SLAM 因其在浑浊水域中的有效性而被广泛应用,而水下光学 SLAM 则适用于视线良好的清澈水域。

  • 尽管如此,这些技术仍需面对众多挑战,如数据处理速度、能耗以及算法的鲁棒性等问题。随着计算技术的进步和新算法的发展,未来的水下 SLAM 技术有望实现更高的精度和效率。本文旨在综述当前水下 SLAM 技术的发展现状,探讨各种技术的优缺点,并对未来的发展方向提供展望。概述水下 SLAM 的重要性和应用领域。

  • 1 SLAM 技术基础

  • 同步定位与地图构建(SLAM)是一个机器人技术领域的关键概念,其目标是使得机器人能够在探索未知环境的同时,实现自身位置的估计和环境地图的构建[10]。SLAM 技术首先在陆地机器人中得到开发,并随后扩展到空中无人机和水下机器人领域。

  • 1.1 基本原理

  • SLAM 问题可以描述为一个机器人从初始位置开始,通过其传感器观测到的环境特征,同时估计自己的轨迹和周围环境的地图。这一过程通常涉及两个主要步骤:定位和地图构建。定位即通过比对传感器数据与已知或正在构建的地图来估计机器人的位置;地图构建则是根据机器人的位置和传感器数据逐步构建出环境的地图。这 2 个过程是相互依赖的:准确的定位依赖于准确的地图,而地图的精确构建又需要准确的定位信息。

  • 1.2 关键技术

  • 在 SLAM 的实现中,机器人首先利用传感器(如摄像头、激光雷达、声呐等)收集环境数据。这些数据通常包括但不限于环境中的物理特征,如墙壁的位置、障碍物的形状等。机器人通过分析这些特征来估计自身在环境中的位置。此外,SLAM 算法还需要处理因传感器噪声和误差带来的不确定性,这通常通过概率模型和数学优化方法来实现,常见的方法分为基于图论的方法,优化 SLAM 方法[11] 见图1;以及基于滤波器的方法,如卡尔曼滤波器 SLAM 方法[12]或粒子滤波器 SLAM 方法[13]

  • 图1 图优化 SLAM 算法框架示意图

  • Fig.1 Graph-based SLAM algorithm framework

  • 1.3 挑战与解决方案

  • 在陆地和空中环境中,SLAM 技术的挑战主要源自动态环境变化和传感器误差。解决这些问题通常依赖于算法的改进,如引入鲁棒性较高的传感器模型和状态估计技术。然而,在水下环境中,SLAM 面临更加复杂的挑战,如水下通信的限制、声波在水中的衰减和散射、以及环境条件的极端不稳定性。这些因素使得水下 SLAM 技术的研发和应用更为复杂。

  • 随着机器人的移动,其通过不断收集新的传感器数据,并与先前收集的数据进行融合,更新其对环境的认知和地图的构建[14]。这种动态更新使机器人能够在探索未知环境时,逐步完善其地图的精确度和覆盖范围。在这个过程中,SLAM 系统面临的一大挑战是如何有效地处理大量数据,以及如何在计算资源有限的情况下快速响应环境变化。

  • SLAM 系统越来越多地采用机器学习技术,尤其是深度学习,来提高特征检测和数据关联的准确性[15]。通过训练神经网络识别和跟踪环境特征, SLAM 系统可以更有效地进行环境解析和决策支持,尤其是在光线不足或视觉受阻的复杂环境中[16]

  • 1.4 水下 SLAM 的独特性

  • 与陆地或空中 SLAM 不同,水下 SLAM 面临的主要挑战源自于其操作环境的独特性[1]。水介质对声波的传播特性,如速度、吸收和散射,与空气中截然不同,这直接影响到声学信号的反射和折射现象[17]。在水下,声波是主要的信息载体,因此, SLAM 系统通常依赖于特别设计的声学传感器,如多波束声呐和侧扫声呐,这些设备能够在水下环境中有效地进行距离和方向的测量[18]

  • 多波束声呐通过发射一束分散的声波覆盖广阔区域,接收从不同角度反射回来的声波,从而能够生成精细的水下三维地形图。侧扫声呐则通过发射水平扫描的声波,生成宽广区域的地形图像,这对于海底地形的大范围映射尤为有效。这些技术的运用不仅提高了地图构建的精确度,也极大地增强了水下 SLAM 系统的环境感知能力[19]

  • 由于水下环境无法接收 GPS 信号,传统的地面基于电磁波的定位系统对于水下机器人而言无效。这一限制促使研究者们寻找替代方案,如依赖于惯导、多普勒测速计(DVL)和压力传感器[20]。惯导可以通过测量加速度和旋转速率来追踪机器人的动态变化,而压力传感器则用于测量水深,间接推算出设备的精确位置。这些设备的组合使用,在复杂的海底环境中为水下机器人提供了一种有效的自我定位手段,但由于其推算导航的性质,会存在随时间累计增大的累计偏差,并不适用于长时间作业任务下的水下定位[21]

  • 由于水下操作环境的不确定性和复杂性,水下 SLAM 技术必须具备高度的适应性和鲁棒性。这包括对恶劣视觉条件的适应,如浑浊的水质和低光照条件,以及对动态变化如海流和移动物体的快速响应[22]。因此,未来的研究需要进一步优化声呐和视觉融合技术,改进数据处理算法,并提升机器人的自主决策能力,以更好地应对这些挑战。

  • 2 水下 SLAM 技术研究现状

  • 2.1 前视声呐 SLAM

  • 前视声呐 SLAM 是水下机器人定位与导航中使用的一种主要技术,它利用声呐系统来探测并映射水下环境。前视声呐系统通过发射声波并接收反射回来的声波来获取水下物体的位置和形状信息。这种技术尤其适用于视觉受限和光线衰减严重的水下环境,如深海或浑浊的水域[23]

  • 前视声呐 SLAM 系统(图2)通常包括 1 个或多个声呐传感器,这些传感器能够提供高分辨率的水下声像。在 SLAM 过程中,声呐数据被用来估计机器人的轨迹并同时构建环境地图。声呐数据处理包括声波时间延迟的测量、信号的角度解析、以及目标距离的计算,这些都是通过分析声波的反射特性来完成的[24]

  • 图2 前视声呐 SLAM

  • Fig.2 Forward-looking sonar SLAM

  • 前视声呐 SLAM 在多种水下任务中都有应用,包括但不限于海底管道检查、考古遗址映射、以及生物多样性研究等。尽管前视声呐 SLAM 在水下环境中非常有效,但它也面临一些技术挑战,如声波在复杂地形中的多路径效应、声波散射和回声干扰等。这些因素可能影响声呐数据的准确性和地图构建的质量[25]

  • 最近的研究集中在提高前视声呐 SLAM 的精度和鲁棒性上。一些研究利用先进的信号处理算法来减少噪声和干扰,改进数据的质量。例如,一些方法采用机器学习技术来识别和剔除错误的数据点,提高 SLAM 系统的整体性能[26]。此外,研究人员还探索了将前视声呐数据与其他传感器数据 (如 IMU、压力传感器)融合的方法,以提供更准确的定位和更详细的地图[27]

  • 2.2 水下光学 SLAM

  • 水下光学 SLAM(图3)利用光学传感器,如摄像头,来捕获水下环境的图像,并通过这些图像进行同步定位与地图构建。这种技术依赖于光学传感器的视觉信息,与依赖声波的前视声呐 SLAM 形成鲜明对比[28]

  • 图3 水下光学 SLAM

  • Fig.3 Underwater optical SLAM

  • 水下光学 SLAM 通常包括视觉传感器(如摄像头)捕获的连续图像序列。通过分析图像中的特征点移动和变化,可以推断出机器人的移动路径,并逐步构建出环境的三维地图[29]。关键技术包括特征检测、特征匹配、运动估计和三维重建。

  • 然而,水下光学 SLAM 在实际应用中面临诸多挑战。首先,水下环境复杂多变,光线在水中的传播受到显著的衰减和散射,导致图像质量下降和有效范围缩短[30]。此外,水下景物的纹理单一,特征点难以提取和匹配,进一步增加了 SLAM 的难度。不同深度和浑浊度的水体条件下,光学传感器的表现差异较大,使得在广泛环境中应用成为一大难点。

  • 为了克服这些挑战,研究者开发了多种增强水下图像质量的技术,如使用特殊的图像预处理算法来增强图像对比度和减少散射效应[31]

  • 此外,一些研究团队正在开发新型水下光学传感器,这些传感器可以在较低光照条件下工作,从而拓宽了水下光学 SLAM 的应用范围[32]

  • 最近的一些进展还包括结合机器学习技术,特别是深度学习,来改进特征检测和匹配过程。深度学习通过其强大的数据处理能力和模式识别能力,能够在复杂的水下环境中提供更为准确和稳定的特征识别,从而提高 SLAM 过程的准确性和效率[1]。例如,卷积神经网络(CNN)和生成对抗网络(GAN)等深度学习模型被广泛应用于水下图像增强和特征提取中,显著提升了视觉 SLAM 系统的性能。

  • 总结而言,水下光学 SLAM 在浅水区域应用广泛,但在深水和浑浊水域中面临挑战。通过引入图像预处理技术、新型传感器和深度学习方法,水下光学 SLAM 的性能和应用范围得到了显著提升。这些技术的进步为水下探索和研究提供了强有力的工具,推动了海洋科学和工程的发展。

  • 2.3 测深信息 SLAM

  • 测深信息 SLAM(图4)主要依赖于多波束声呐、单波束声呐或其他类型的声学传感器来获取水深数据,这些数据随后被用于生成精确的水下地图并辅助定位[33]

  • 图4 测深信息 SLAM

  • Fig.4 Underwater bathymetric SLAM

  • 多波束声呐是一种声学测量设备,能够同时发射和接收多条声波束,以获取水下地形的详细信息[34]。在海底地形探测领域,使用多波束声呐作为传感器获取海底地形是常用的方法,许多国内外研究机构已经投入实际操作。使用多波束声呐的原因主要为其能够提供高分辨率的三维地形数据,覆盖更大的探测范围,并且在复杂的水下环境中表现出卓越的环境感知能力和数据稳定性。这些特性使得多波束声呐非常适合于水下 SLAM 应用,它能有效提高地图制作的准确性和效率[35]

  • 测深信息 SLAM 在海洋地质学、考古、以及海底基础设施的建设和维护等领域中有广泛的应用[36]。尽管测深信息提供了对海底地形的精确测量,但这种技术面临的挑战包括数据处理的复杂性、声波在不同海洋环境中的传播效率变化,以及从海量数据中提取有用信息的能力[37]

  • 对于大规模、非结构化的海洋探测,尤其是在复杂和广阔的水下环境中,仅依赖于视觉信息的 SLAM 可能会遇到诸多挑战,基于测深信息的 SLAM 显得尤为重要[38]。测深信息为机器人提供了一个更为稳定和鲁棒的参考,能够在光学干扰严重或视觉信息缺乏的深海区域中,有效地帮助机器人定位和建图。因此,当面对大规模和非结构化的海洋探测任务时,基于测深信息的 SLAM 技术是一个更为可靠和实用的选择[39]

  • 近年来,测深信息 SLAM 的研究重点在于提高数据处理的效率和准确性。研究者们开发了多种数据融合技术,这些技术能够整合来自不同声呐系统的信息,以提高地图的准确性和细节丰富度。例如,一些先进的滤波技术和数据融合算法已经被应用于实时处理和优化声呐数据,从而改善了 SLAM 过程的效果[40]

  • 此外,机器学习方法,特别是深度学习,正在被探索用于自动识别和分类海底特征,这些技术有助于提升测深信息 SLAM 的性能,使其在自动化和准确性方面达到新的高度[41]

  • 3 技术挑战与解决方案

  • 水下 SLAM 技术虽然在多个领域展现出巨大潜力,但其发展仍面临多项技术挑战,这些挑战限制了其更广泛的应用。

  • 3.1 环境复杂性与传感器限制

  • 水下环境的不确定性极高,包括但不限于可变的水流、复杂的海底地形以及各种浑浊条件,这些因素都严重影响传感器的性能和数据的可靠性。这些挑战导致 SLAM 系统在复杂环境下无法准确定位和构建地图,影响导航和任务执行的有效性。为了克服这些挑战,更为先进的多传感器融合技术正在被开发,这些技术可以整合来自声呐、光学摄像机、IMU 和压力传感器的数据,以提高系统的鲁棒性和环境适应性[42]。此外,改进传感器的硬件设计和提升其抗干扰能力也是研究的重点。

  • 水下环境中存在的各种挑战对 SLAM 系统的设计和实施提出了独特要求。例如,水流的变化和海底地形的复杂性可以迅速改变声呐和光学传感器接收的信号质量。这些环境因素导致数据采集中的不确定性增加,影响了 SLAM 系统的定位和地图构建精度。由于环境复杂性,SLAM 系统可能出现定位漂移、地图失真等问题,降低了系统的可靠性和稳定性。为应对这些问题,多传感器融合技术发挥着至关重要的作用。通过融合多种类型传感器数据,如声呐的深度信息和光学摄像机的视觉数据,SLAM 系统能够更全面地理解和适应复杂的水下环境,提高导航和地图构建的准确性[43]

  • 同时,传感器的硬件优化也是提升水下 SLAM 系统性能的关键方向。通过增强传感器的物理设计,例如改进声呐传感器的频率响应和提升光学传感器在低光条件下的性能,可以显著提高数据质量和系统的整体可靠性。此外,使用先进的信号处理算法和机器学习技术来过滤环境噪声和识别关键特征,进一步增强 SLAM 系统对复杂环境因素的抵抗能力[44]

  • 在未来,随着技术的进一步发展,水下 SLAM 系统将可能包含更多创新的传感技术,如使用合成孔径声呐(SAS)以提高图像分辨率和探测距离,以及开发新型的环境适应算法,以自动调整传感器设置和处理策略以应对不断变化的海底条件。这些技术的进步不仅可以提升水下机器人在极端环境中的操作能力,还能拓宽其在海洋科学研究、商业勘探和环境监测等领域的应用前景。

  • 3.2 通信问题

  • 水下环境中的通信问题尤为突出,因为水体对电磁波的吸收导致传统无线通信技术难以使用。在水下,声学通信技术因其能够在水中有效传输而成为实现远程通信的主要手段。然而,水下声学通信面临的挑战包括带宽较低和通信延迟较高,这限制了数据传输的效率和实时性[45]。低带宽和高延迟的问题导致实时控制和数据反馈的困难,影响水下机器人任务的执行效率和安全性。为了解决这些问题,新型通信协议和网络架构的研究就显得十分重要,以达到优化数据传输效率并减少延迟的目的。同时,开发更有效的数据压缩算法以适应低带宽条件也是当前研究的热点。

  • 水下通信的低带宽和高延迟问题主要源于水中声波传播速度较慢以及信号在水中传播时受到的各种干扰[46]。这些干扰包括水温、盐度变化和水下障碍物等。为了提高水下通信的可靠性和效率,可以使用基于多跳网络的通信策略,通过将信号在多个节点间进行中继,以实现更远距离的通信[47]。此外,利用机器学习方法优化传输协议,根据当前的水下环境条件自动调整信号的编码和传输参数,也是提高通信效率的有效方法[48]

  • 另一个研究方向是使用光学通信技术补充声学通信。光学通信在水中的传输距离虽然有限,但其在近距离内可以提供高带宽和低延迟的通信能力。通过结合声学和光学通信,可以在不同的应用场景下选择最适合的通信方式,从而优化整体的通信效率[49]

  • 此外,数据压缩技术在水下通信中扮演着关键角色。有效的数据压缩可以显著减少需要传输的数据量,从而减轻低带宽带来的影响。研究者们正在探索如何利用先进的压缩算法,例如基于预测的编码技术和无损压缩技术,来进一步提高数据压缩的效率[50]

  • 3.3 数据处理与算法效率

  • 海量数据的处理需求和算法的计算复杂性是水下 SLAM 的主要技术挑战之一。随着水下探测任务的增加和传感器技术的发展,水下机器人系统需要实时处理和分析越来越多的数据,这对计算资源提出了巨大的需求。高计算需求导致系统运行负担加重,可能导致实时性下降和任务执行效率降低。为了应对这一挑战,利用云计算和边缘计算技术来处理大量数据,减轻单一机器人系统的计算负担,已成为研究的重点[51]。云计算提供了几乎无限的计算资源,使得复杂的数据处理任务可以在云端进行,而边缘计算则允许在数据产生的地点附近进行处理,这样可以减少数据传输时间,提高响应速度[52]

  • 开发更高效的 SLAM 算法以提高系统的运行效率和实时性也成为重要的研究方向[53]。这些算法包括基于图的优化技术和实时性能优化的滤波器。基于图的优化技术通过建立一个包含所有测量和位置估计的全局图,利用图论的方法来优化位置的全局一致性,这种方法尤其适合处理大规模的 SLAM 问题[54]。而实时性能优化的滤波器,如扩展卡尔曼滤波器和粒子滤波器,被设计来实时更新位置和地图信息,同时有效处理传感器噪声和不确定性。

  • 此外,机器学习技术,特别是深度学习,正在被引入到 SLAM 算法中,以提高其自适应性和鲁棒性[55]。通过训练深度神经网络识别复杂的水下环境特征,这些高级算法能够在动态变化的环境中提供更准确的特征匹配和环境建模。例如,卷积神经网络 (CNN)[56]和循环神经网络(RNN)[57]已被用于增强视觉 SLAM 系统的性能,通过这些网络处理的视觉数据可以更准确地进行特征提取和序列数据分析。

  • 为了进一步提升算法的效率和减轻硬件的计算负担,算法的硬件加速也是一个重要的研究方向。使用专用的硬件如 GPU 和 FPGA 来加速 SLAM 算法的关键部分,如特征提取和数据融合,可以显著提高整个系统的处理速度和能效[58]

  • 总之,通过结合先进的计算框架和算法优化,未来的水下 SLAM 系统将能够更高效地处理海量数据,实现更快的决策和更精确的导航,从而更好地适应复杂多变的水下环境。这些技术的发展不仅将推动水下机器人技术的进步,也将为深海探索和资源利用等领域带来新的机遇。

  • 4 未来研究方向

  • 水下 SLAM 技术的发展前景广阔,未来研究将关注于克服现有挑战,并开发出更为先进、可靠和有效的系统。以下是几个关键的未来研究方向。

  • 4.1 增强的感知能力

  • 未来研究将继续提高水下机器人的感知能力,特别是在极端水质条件下。这包括开发新型传感器技术和改进现有传感器的数据处理算法,如通过机器学习和深度学习技术来提高声呐和光学传感器的解析能力和准确性。当前水下环境中的光线衰减和散射会严重影响视觉质量,导致 SLAM 系统难以在浑浊水域和深水中准确工作。为了解决这些问题,增强感知能力的研究将是至关重要的。

  • 4.2 自主性和智能化

  • 加强水下机器人的自主决策和自适应能力,使其能够在未知和动态变化的水下环境中进行更为复杂的任务。这涉及到增强机器学习算法的运用,以及发展更复杂的行为策略和导航算法,从而提高 SLAM 系统的整体智能化水平。目前,水下机器人在面对复杂和动态环境时,往往依赖于预先设定的路径和人工干预,限制了其自主性和任务执行能力。未来的研究需要解决这些自主性和智能化方面的技术瓶颈。

  • 4.3 耐久性和能效

  • 改进水下机器人的耐久性和能效,特别是针对长期部署和远程操作的应用。研究更高效的能源管理系统和新型能源利用策略,如使用可再生能源技术和优化电源管理算法,以延长机器人的作业时间和降低维护需求。当前水下机器人的续航能力和能源效率是其在长时间任务中的主要制约因素,未来的研究需要在这些方面取得突破,以提升系统的持续工作能力。

  • 4.4 数据共享与协同作业

  • 推动多机器人系统的协同作业,通过共享 SLAM 数据和地图信息,提高大规模水下探测任务的效率和覆盖面。这包括开发更为有效的通信协议和协同控制算法,以实现多 AUV 之间的实时数据交换和任务协调。现有的水下通信技术由于带宽和稳定性问题,难以满足多机器人协同作业的需求,未来研究需重点解决这些通信与协作方面的挑战。

  • 4.5 跨领域集成应用

  • 探索水下 SLAM 技术与其他科技领域的集成,例如与水下无线电力传输、深海矿物资源开采和海洋生物研究的结合。这样的跨领域应用不仅可以拓宽水下 SLAM 的应用范围,也可能为相关领域带来创新的解决方案。当前水下 SLAM 的应用多局限于科学探测和工程检查,通过跨领域的融合,可以激发更多潜在的应用场景和技术革新。

  • 5 结束语

  • 本文综述了水下同步定位与地图构建(SLAM) 技术的当前研究现状,探讨了各种水下 SLAM 技术的原理、应用、面临的挑战以及可能的解决方案。水下 SLAM 作为一项关键技术,已在海底地形测绘、资源勘探和环境监测等多个领域展示了其不可替代的价值。尽管存在许多技术挑战,如环境复杂性、通信限制和数据处理需求,但通过持续的技术创新和跨学科研究,水下 SLAM 的潜力仍在不断扩展。

  • 未来研究需要集中在提升系统的感知能力、自主性、耐久性和能效,同时也要开拓机器人的协同作业能力和跨领域的集成应用。通过加强这些方面的研究,水下 SLAM 技术不仅能够更有效地应对复杂海洋环境,也能为海洋科学、工业和环境保护等领域带来革命性的进展。

  • 本文的探讨表明,随着计算能力的提高和新算法的开发,水下 SLAM 技术的未来充满希望。鼓励全球研究者和工程师们继续在这一领域探索新的方法和技术,以克服现有的限制,推动水下机器人技术向更高的技术成熟度发展。通过这些努力,我们可以期待在不久的将来,水下机器人将能够更加自主和有效地执行复杂任务,从而开启海洋探索和利用的新篇章。

  • 参考文献

    • [1] 马腾,丁硕硕,范佳佳,等.海底地形匹配高效质点滤波导航方法[J].数字海洋与水下攻防,2021,4(6):439-445.

    • [2] 任翀,王峰,刘小涯,等.深海生物采样工具研制报告[J].科技创新导报,2016,13(5):175.

    • [3] 李航洲,李保生,张康乐,等.“深海勇士”号载人潜水器运维保障系统设计及应用[J].舰船科学技术,2022,44(20):182-185.

    • [4] 许裕良,杜江辉,雷泽宇,等.水下机器人在渔业中的应用现状与关键技术综述[J].机器人,2023,45(1):110-128.

    • [5] 朱益贤,马腾,范佳佳,等.融合测深/测距信息的水下同步定位与建图技术[J].无人系统技术,2023,6(4):10-21.

    • [6] 马腾,李晔,赵玉新,等.AUV 的图优化海底地形同步定位与建图方法[J].导航定位与授时,2020,7(2):42-49.

    • [7] MCCONNELL J,CHEN F F,ENGLOT B.Overhead image factors for underwater sonar-based SLAM[J].IEEE Robotics and Automation Letters,2022,7(2):4901-4908.

    • [8] ZHANG S,ZHAO S L,AN D,et al.Visual SLAM for underwater vehicles:a survey[J].Computer Science Review,2022,46(C):100510.

    • [9] PALOMER A,RIDAO P,RIBAS D.Multibeam 3D underwater SLAM with probabilistic registration[J].Sensors,2016,16(4):s16040560.

    • [10] TAHERI H,XIA Z C.SLAM;definition and evolution[J].Engineering Applications of Artificial Intelligence,2021,97:104032.

    • [11] CARLEVARIS-BIANCO N,KAESS M,EUSTICE R M.Generic node removal for factor-graph SLAM[J].IEEE Transactions on Robotics,2014,30(6):1371-1385.

    • [12] AHN S H,CHOI J,DOH N L,et al.A practical approach for EKF-SLAM in an indoor environment:fusing ultrasonic sensors and stereo camera[J].Autonomous Robots,2008,24:315-335.

    • [13] YAN Y P,WONG S F.A navigation algorithm of the mobile robot in the indoor and dynamic environment based on the PF-SLAM algorithm[J].Cluster Computing,2019,22:14207-14218.

    • [14] STRASDAT H,MONTIEL J M M,DAVISON A J.Visual SLAM:why filter?[J].Image and Vision Computing,2012,30(2):65-77.

    • [15] TAKETOMI T,UCHIYAMA H,IKEDA S.Visual SLAM algorithms:a survey from 2010 to 2016[J].IPSJ Transactions on Computer Vision and Applications,2017,9:1-11.

    • [16] DAVISON A J,REID I D,MOLTON N D,et al.MonoSLAM:real-time single camera SLAM[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(6):1052-1067.

    • [17] WANG X,FAN X,SHI P,et al.An overview of key SLAM technologies for underwater scenes[J].Remote Sensing,2023,15(10):2496.

    • [18] MA T,LI Y,WANG R P,et al.AUV robust bathymetric simultaneous localization and mapping[J].Ocean Engineering,2018,166:336-349.

    • [19] LING Y,LI Y,MA T,et al.Active bathymetric SLAM for autonomous underwater exploration[J].Applied Ocean Research,2023,130:103439.

    • [20] PAULL L,SAEEDI S,SETO M,et al.AUV navigation and localization:a review[J].IEEE Journal of Oceanic Engineering,2013,39(1):131-149.

    • [21] CHEN P Y,LI Y,SU Y M,et al.Review of AUV underwater terrain matching navigation[J].Journal of Navigation,2015,68(6):1155-1172.

    • [22] HIDALGO F,BRÄUNL T.Review of underwater SLAM techniques[C]//6th International Conference on Automation,Robotics and Applications(ICARA).Queenstown:IEEE,2015.

    • [23] LI J,KAESS M,EUSTICE R M,et al.Pose-graph SLAM using forward-looking sonar[J].IEEE Robotics and Automation Letters,2018,3(3):2330-2337.

    • [24] MU X K,YUE G,ZHOU N,et al.Occupancy grid-based AUV SLAM method with forward-looking sonar[J].Journal of Marine Science and Engineering,2022,10(8):1056.

    • [25] HE B,LIANG Y,FENG X,et al.AUV SLAM and experiments using a mechanical scanning forward-looking sonar[J].Sensors,2012,12(7):9386-9410.

    • [26] CHENG C,WANG C,YANG D,et al.Underwater SLAM based on forward-looking sonar[C]//Cognitive Systems and Signal Processing(ICCSIP 2020).Zhuhai:Springer Singapore,2021.

    • [27] GASPAR A R,MATOS A.Feature-based place recognition using forward-looking sonar[J].Journal of Marine Science and Engineering,2023,11(11):11112198.

    • [28] CHO Y G,KIM A.Visibility enhancement for underwater visual SLAM based on underwater light scattering model[C]//2017 IEEE International Conference on Robotics and Automation(ICRA).Singapore:IEEE,2017.

    • [29] AULINAS J,CARRERAS M,LLADO X,et al.Feature extraction for underwater visual SLAM[C]//OCEANS 2011-MTS/IEEE.Santander:IEEE,2011.

    • [30] KIM A,EUSTICE R M.Real-time visual SLAM for autonomous underwater hull inspection using visual saliency[J].IEEE Transactions on Robotics,2013,29(3):719-733.

    • [31] BONIN-FONT F,BURGUERA A B.NetHALOC:a learned global image descriptor for loop closing in underwater visual SLAM[J].Expert Systems,2021,38(2):e12635.

    • [32] XIN Z C,WANG Z,YU Z B,et al.ULL-SLAM:underwater low-light enhancement for the front-end of visual SLAM[J].Frontiers in Marine Science,2023,10:1133881.

    • [33] MASSOT-CAMPOS M,OLIVER G,BODENMANN A,et al.Submap bathymetric SLAM using structured light in underwater environments[C]//2016 IEEE/OES Autonomous Underwater Vehicles(AUV).Buenos Aires:IEEE,2016.

    • [34] BARKBY S,WILLIAMS S,PIZARRO O,et al.An efficient approach to bathymetric SLAM[C]//2009 IEEE/RSJ International Conference on Intelligent Robots and Systems.St.Louis:IEEE,2009.

    • [35] ROMAN C,SINGH H.Improved vehicle based multibeam bathymetry using sub-maps and SLAM[C]//2005 IEEE/RSJ International Conference on Intelligent Robots and Systems.Edmonton:IEEE,2005.

    • [36] STUCKEY R A.Navigational error reduction of underwater vehicles with selective bathymetric SLAM[J].IFAC Proceedings Volumes,2012,45(5):118-125.

    • [37] TORROBA I,SPRAGUE C I,BORE N,et al.PointNetKL:deep inference for GICP covariance estimation in bathymetric SLAM[J].IEEE Robotics and Automation Letters,2020,5(3):4078-4085.

    • [38] PALOMER A,RIDAO P,RIBAS D,et al.Bathymetry-based SLAM with difference of normals point-cloud subsampling and probabilistic ICP registration[C]//OCEANS 2013-MTS/IEEE.Bergen:IEEE,2013.

    • [39] MA T,LI Y,ZHAO Y X,et al.Efficient bathymetric SLAM with invalid loop closure identification[J].IEEE/ASME Transactions on Mechatronics,2020,26(5):2570-2580.

    • [40] BICHUCHER V,WALLS J M,OZOG P,et al.Bathymetric factor graph SLAM with sparse point cloud alignment[C]//OCEANS 2015-MTS/IEEE.Washington:IEEE,2015.

    • [41] ZHANG Q Y,KIM J.TTT SLAM:a feature-based bathymetric SLAM framework[J].Ocean Engineering,2024,294:116777.

    • [42] CAI Y Y,OU Y,QIN T F.Improving SLAM techniques with integrated multi-sensor fusion for 3D reconstruction[J].Sensors,2024,24(7):s24072033.

    • [43] LI D D,JI D X,LIU J,et al.A multi-model EKF integrated navigation algorithm for deep water AUV[J].International Journal of Advanced Robotic Systems,2016,13(1):3.

    • [44] PARNUM I M,SAUNDERS B J,STOTT M,et al.The accuracy of length measurements made using imaging SONAR is inversely proportional to the beamwidth[J].Methods in Ecology and Evolution,2024:1-12.

    • [45] GONZÁLEZ-GARCÍA J,GÓMEZ-ESPINOSA A,CUAN-URQUIZO E,et al.Autonomous underwater vehicles:localization,navigation,and communication for collaborative missions[J].Applied Sciences,2020,10(4):1256.

    • [46] LAJOIE P Y,BELTRAME G.Swarm-SLAM:sparse decentralized collaborative simultaneous localization and mapping framework for multi-robot systems[J].IEEE Robotics and Automation Letters,2023,9(1):475-482.

    • [47] CHEN W F,WANG X Y,GAO S P,et al.Overview of multi-robot collaborative SLAM from the perspective of data fusion[J].Machines,2023,11(6):11060653.

    • [48] DRUPT J,COMPORT A I,DUNE C,et al.MAM3SLAM:towards underwater robust multi-agent visual SLAM[J].Ocean Engineeting,2024,302:117643.

    • [49] ANGUITA D,BRIZZOLARA D,PARODI G,et al.Optical wireless underwater communication for AUV:preliminary simulation and experimental results[C]//OCEANS 2011-MTS/IEEE.Santander:IEEE,2011.

    • [50] CONG Z,MA T,LI Y,et al.A storage-saving quadtree-based multibeam bathymetry map representation method[J].Journal of Marine Science and Engineering,2023,11(4):11040709.

    • [51] CAI S B,ZHU Y,WANG T,et al.Data collection in underwater sensor networks based on mobile edge computing[J].IEEE Access,2019,7:65357-65367.

    • [52] DU J X,HAN G J,LIN C.An edge-computing-enabled trust mechanism for underwater acoustic sensor networks[J].IEEE Communications Standards Magazine,2022,6(1):44-51.

    • [53] MONTEMERLO M,THRUN S,KOLLER D,et al.FastSLAM:a factored solution to the simultaneous localization and mapping problem[C]//18th National Conference on Artificial Intelligence.Edmonton:The Association for the Advancement of Artificial Intelligence,2002.

    • [54] MO J,ISLAM M J,SATTAR J.Fast direct stereo visual SLAM[J].IEEE Robotics and Automation Letters,2021,7(2):778-785.

    • [55] 赵洋,刘国良,田国会,等.基于深度学习的视觉SLAM综述[J].机器人,2017,39(6):889-896.

    • [56] LIU W B,SUN W,LIU Y.DLOAM:real-time and robust LiDAR SLAM system based on CNN in dynamic urban environments[J].IEEE Open Journal of Intelligent Transportation Systems,2021:1-12.

    • [57] CHEN W F,SHANG G T,JI A H,et al.An overview on visual SLAM:from tradition to semantic[J].Remote Sensing,2022,14(13):14133010.

    • [58] MA T J,BAI N Y,SHI W T,et al.Research on the application of visual SLAM in embedded GPU[J].Wireless Communications and Mobile Computing,2021,2021:6691262.

  • 参考文献

    • [1] 马腾,丁硕硕,范佳佳,等.海底地形匹配高效质点滤波导航方法[J].数字海洋与水下攻防,2021,4(6):439-445.

    • [2] 任翀,王峰,刘小涯,等.深海生物采样工具研制报告[J].科技创新导报,2016,13(5):175.

    • [3] 李航洲,李保生,张康乐,等.“深海勇士”号载人潜水器运维保障系统设计及应用[J].舰船科学技术,2022,44(20):182-185.

    • [4] 许裕良,杜江辉,雷泽宇,等.水下机器人在渔业中的应用现状与关键技术综述[J].机器人,2023,45(1):110-128.

    • [5] 朱益贤,马腾,范佳佳,等.融合测深/测距信息的水下同步定位与建图技术[J].无人系统技术,2023,6(4):10-21.

    • [6] 马腾,李晔,赵玉新,等.AUV 的图优化海底地形同步定位与建图方法[J].导航定位与授时,2020,7(2):42-49.

    • [7] MCCONNELL J,CHEN F F,ENGLOT B.Overhead image factors for underwater sonar-based SLAM[J].IEEE Robotics and Automation Letters,2022,7(2):4901-4908.

    • [8] ZHANG S,ZHAO S L,AN D,et al.Visual SLAM for underwater vehicles:a survey[J].Computer Science Review,2022,46(C):100510.

    • [9] PALOMER A,RIDAO P,RIBAS D.Multibeam 3D underwater SLAM with probabilistic registration[J].Sensors,2016,16(4):s16040560.

    • [10] TAHERI H,XIA Z C.SLAM;definition and evolution[J].Engineering Applications of Artificial Intelligence,2021,97:104032.

    • [11] CARLEVARIS-BIANCO N,KAESS M,EUSTICE R M.Generic node removal for factor-graph SLAM[J].IEEE Transactions on Robotics,2014,30(6):1371-1385.

    • [12] AHN S H,CHOI J,DOH N L,et al.A practical approach for EKF-SLAM in an indoor environment:fusing ultrasonic sensors and stereo camera[J].Autonomous Robots,2008,24:315-335.

    • [13] YAN Y P,WONG S F.A navigation algorithm of the mobile robot in the indoor and dynamic environment based on the PF-SLAM algorithm[J].Cluster Computing,2019,22:14207-14218.

    • [14] STRASDAT H,MONTIEL J M M,DAVISON A J.Visual SLAM:why filter?[J].Image and Vision Computing,2012,30(2):65-77.

    • [15] TAKETOMI T,UCHIYAMA H,IKEDA S.Visual SLAM algorithms:a survey from 2010 to 2016[J].IPSJ Transactions on Computer Vision and Applications,2017,9:1-11.

    • [16] DAVISON A J,REID I D,MOLTON N D,et al.MonoSLAM:real-time single camera SLAM[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(6):1052-1067.

    • [17] WANG X,FAN X,SHI P,et al.An overview of key SLAM technologies for underwater scenes[J].Remote Sensing,2023,15(10):2496.

    • [18] MA T,LI Y,WANG R P,et al.AUV robust bathymetric simultaneous localization and mapping[J].Ocean Engineering,2018,166:336-349.

    • [19] LING Y,LI Y,MA T,et al.Active bathymetric SLAM for autonomous underwater exploration[J].Applied Ocean Research,2023,130:103439.

    • [20] PAULL L,SAEEDI S,SETO M,et al.AUV navigation and localization:a review[J].IEEE Journal of Oceanic Engineering,2013,39(1):131-149.

    • [21] CHEN P Y,LI Y,SU Y M,et al.Review of AUV underwater terrain matching navigation[J].Journal of Navigation,2015,68(6):1155-1172.

    • [22] HIDALGO F,BRÄUNL T.Review of underwater SLAM techniques[C]//6th International Conference on Automation,Robotics and Applications(ICARA).Queenstown:IEEE,2015.

    • [23] LI J,KAESS M,EUSTICE R M,et al.Pose-graph SLAM using forward-looking sonar[J].IEEE Robotics and Automation Letters,2018,3(3):2330-2337.

    • [24] MU X K,YUE G,ZHOU N,et al.Occupancy grid-based AUV SLAM method with forward-looking sonar[J].Journal of Marine Science and Engineering,2022,10(8):1056.

    • [25] HE B,LIANG Y,FENG X,et al.AUV SLAM and experiments using a mechanical scanning forward-looking sonar[J].Sensors,2012,12(7):9386-9410.

    • [26] CHENG C,WANG C,YANG D,et al.Underwater SLAM based on forward-looking sonar[C]//Cognitive Systems and Signal Processing(ICCSIP 2020).Zhuhai:Springer Singapore,2021.

    • [27] GASPAR A R,MATOS A.Feature-based place recognition using forward-looking sonar[J].Journal of Marine Science and Engineering,2023,11(11):11112198.

    • [28] CHO Y G,KIM A.Visibility enhancement for underwater visual SLAM based on underwater light scattering model[C]//2017 IEEE International Conference on Robotics and Automation(ICRA).Singapore:IEEE,2017.

    • [29] AULINAS J,CARRERAS M,LLADO X,et al.Feature extraction for underwater visual SLAM[C]//OCEANS 2011-MTS/IEEE.Santander:IEEE,2011.

    • [30] KIM A,EUSTICE R M.Real-time visual SLAM for autonomous underwater hull inspection using visual saliency[J].IEEE Transactions on Robotics,2013,29(3):719-733.

    • [31] BONIN-FONT F,BURGUERA A B.NetHALOC:a learned global image descriptor for loop closing in underwater visual SLAM[J].Expert Systems,2021,38(2):e12635.

    • [32] XIN Z C,WANG Z,YU Z B,et al.ULL-SLAM:underwater low-light enhancement for the front-end of visual SLAM[J].Frontiers in Marine Science,2023,10:1133881.

    • [33] MASSOT-CAMPOS M,OLIVER G,BODENMANN A,et al.Submap bathymetric SLAM using structured light in underwater environments[C]//2016 IEEE/OES Autonomous Underwater Vehicles(AUV).Buenos Aires:IEEE,2016.

    • [34] BARKBY S,WILLIAMS S,PIZARRO O,et al.An efficient approach to bathymetric SLAM[C]//2009 IEEE/RSJ International Conference on Intelligent Robots and Systems.St.Louis:IEEE,2009.

    • [35] ROMAN C,SINGH H.Improved vehicle based multibeam bathymetry using sub-maps and SLAM[C]//2005 IEEE/RSJ International Conference on Intelligent Robots and Systems.Edmonton:IEEE,2005.

    • [36] STUCKEY R A.Navigational error reduction of underwater vehicles with selective bathymetric SLAM[J].IFAC Proceedings Volumes,2012,45(5):118-125.

    • [37] TORROBA I,SPRAGUE C I,BORE N,et al.PointNetKL:deep inference for GICP covariance estimation in bathymetric SLAM[J].IEEE Robotics and Automation Letters,2020,5(3):4078-4085.

    • [38] PALOMER A,RIDAO P,RIBAS D,et al.Bathymetry-based SLAM with difference of normals point-cloud subsampling and probabilistic ICP registration[C]//OCEANS 2013-MTS/IEEE.Bergen:IEEE,2013.

    • [39] MA T,LI Y,ZHAO Y X,et al.Efficient bathymetric SLAM with invalid loop closure identification[J].IEEE/ASME Transactions on Mechatronics,2020,26(5):2570-2580.

    • [40] BICHUCHER V,WALLS J M,OZOG P,et al.Bathymetric factor graph SLAM with sparse point cloud alignment[C]//OCEANS 2015-MTS/IEEE.Washington:IEEE,2015.

    • [41] ZHANG Q Y,KIM J.TTT SLAM:a feature-based bathymetric SLAM framework[J].Ocean Engineering,2024,294:116777.

    • [42] CAI Y Y,OU Y,QIN T F.Improving SLAM techniques with integrated multi-sensor fusion for 3D reconstruction[J].Sensors,2024,24(7):s24072033.

    • [43] LI D D,JI D X,LIU J,et al.A multi-model EKF integrated navigation algorithm for deep water AUV[J].International Journal of Advanced Robotic Systems,2016,13(1):3.

    • [44] PARNUM I M,SAUNDERS B J,STOTT M,et al.The accuracy of length measurements made using imaging SONAR is inversely proportional to the beamwidth[J].Methods in Ecology and Evolution,2024:1-12.

    • [45] GONZÁLEZ-GARCÍA J,GÓMEZ-ESPINOSA A,CUAN-URQUIZO E,et al.Autonomous underwater vehicles:localization,navigation,and communication for collaborative missions[J].Applied Sciences,2020,10(4):1256.

    • [46] LAJOIE P Y,BELTRAME G.Swarm-SLAM:sparse decentralized collaborative simultaneous localization and mapping framework for multi-robot systems[J].IEEE Robotics and Automation Letters,2023,9(1):475-482.

    • [47] CHEN W F,WANG X Y,GAO S P,et al.Overview of multi-robot collaborative SLAM from the perspective of data fusion[J].Machines,2023,11(6):11060653.

    • [48] DRUPT J,COMPORT A I,DUNE C,et al.MAM3SLAM:towards underwater robust multi-agent visual SLAM[J].Ocean Engineeting,2024,302:117643.

    • [49] ANGUITA D,BRIZZOLARA D,PARODI G,et al.Optical wireless underwater communication for AUV:preliminary simulation and experimental results[C]//OCEANS 2011-MTS/IEEE.Santander:IEEE,2011.

    • [50] CONG Z,MA T,LI Y,et al.A storage-saving quadtree-based multibeam bathymetry map representation method[J].Journal of Marine Science and Engineering,2023,11(4):11040709.

    • [51] CAI S B,ZHU Y,WANG T,et al.Data collection in underwater sensor networks based on mobile edge computing[J].IEEE Access,2019,7:65357-65367.

    • [52] DU J X,HAN G J,LIN C.An edge-computing-enabled trust mechanism for underwater acoustic sensor networks[J].IEEE Communications Standards Magazine,2022,6(1):44-51.

    • [53] MONTEMERLO M,THRUN S,KOLLER D,et al.FastSLAM:a factored solution to the simultaneous localization and mapping problem[C]//18th National Conference on Artificial Intelligence.Edmonton:The Association for the Advancement of Artificial Intelligence,2002.

    • [54] MO J,ISLAM M J,SATTAR J.Fast direct stereo visual SLAM[J].IEEE Robotics and Automation Letters,2021,7(2):778-785.

    • [55] 赵洋,刘国良,田国会,等.基于深度学习的视觉SLAM综述[J].机器人,2017,39(6):889-896.

    • [56] LIU W B,SUN W,LIU Y.DLOAM:real-time and robust LiDAR SLAM system based on CNN in dynamic urban environments[J].IEEE Open Journal of Intelligent Transportation Systems,2021:1-12.

    • [57] CHEN W F,SHANG G T,JI A H,et al.An overview on visual SLAM:from tradition to semantic[J].Remote Sensing,2022,14(13):14133010.

    • [58] MA T J,BAI N Y,SHI W T,et al.Research on the application of visual SLAM in embedded GPU[J].Wireless Communications and Mobile Computing,2021,2021:6691262.