本项目的目标是构建一个从原始视频输入到Gazebo动态避障的全链路闭环系统。全过程分为四个阶段:首先,视觉算法组需对原始水下视频执行图像增强,利用 CLAHE 或 UDCP 算法去除蓝绿偏色和雾化效果,随后通过轻量级语义分割模型(如 YOLOv11-seg)实时标注出障碍物、废弃物及环境边界;其次,通信开发组需编写 ROS 节点,将分割后的 Mask 像素坐标结合相机内参(及深度估算)转换至三维空间坐标,并封装为 nav_msgs/OccupancyGrid 或自定义障碍物消息;接着,仿真组在 Gazebo 环境中配置基于 UUV Simulator 的流体动力学插件,实时接收视觉组传回的坐标数据,在仿真世界中动态生成/更新障碍物模型;最后,控制组调用 TEB 或 DWA 路径规划器,基于视觉生成的动态代价图(Costmap)实时修正 AUV 的螺旋桨转速与舵角,实现避障动作。所有模块需确保端到端延迟低于 100ms,以支持机器人在仿真水域中的实时自主导航。