作为一名大三本科在读的计算机专业学生,我具备扎实的技术能力,能够为各类项目提供高效的技术支持。
在后端开发方面,我掌握 Springboot 和 FastAPI,能够快速搭建稳定、高效的后端服务,处理复杂的业务逻辑和数据交互。对于前端交互,我熟悉 WebSocket 技术,能够实现流畅的实时数据传输和用户交互体验。
在机器人技术领域,我具备机器人导航(Nav2)、计算机视觉(OpenCV)、机械臂运动控制及底盘协同算法的实战经验,熟悉 ROS1/2 框架,能够开发和优化机器人系统。
此外,我还成功将多模态大模型(如 Qwen-VL、Moonshot)集成到实际项目中,并在服务器上进行了本地部署,熟悉 RAG 知识库构建与视觉分析流程,能够有效提升项目的智能化水平。
在校期间,我积极参与机器人和网络安全竞赛,积累了宝贵的实践经验。我还作为后端开发人员,为学校部署了 AI 监控智能预警系统,并通过在本地服务器部署 Qwen-VL32B 模型,有效减少了 API 调用的开销,提升了系统的性能和效率。
项目名称:AI Watchdog 校园监控 AI 预警系统
核心目标:构建基于 AI 视频分析的实时校园安全监控系统,自动识别危险行为(如摔倒、霸凌)并提供智能交互。
技术实现:
后端架构:使用 FastAPI + Uvicorn 搭建高性能 Web 服务,处理实时视频流输入与分发,确保系统能够高效处理大量数据。
AI 模型集成:
将视频流实时传输至 Qwen-VL 多模态大模型进行图像识别与分析,检测预设危险场景。
将预警信息、事件日志结构化存储为本地 RAG 知识库,便于后续查询和分析。
通过 WebSocket 实现与前端实时双向通信,接收用户输入,调用后端服务与 Moonshot API 交互,基于本地知识库生成上下文相关的安全响应。
数据处理:设计并实现预警信息、分析结果、用户交互日志的存储与检索方案,确保数据的完整性和可追溯性。
技术实现: 后端架构:使用 FastAPI + Uvicorn 搭建高性能 Web 服务,处理实时视频流输入与分发,确保系统能够高效处理大量数据。 AI 模型集成: 将视频流实时传输至 Qwen-VL 多模态大模型进行图像识别与分析,检测
核心目标: 实现机器人自主导航至多目标点,完成动态物体识别、精准抓取及定点放置的完整任务链。 技术实现: 导航控制: 基于 move_base 动作服务器实现多点位路径规划与导航 (使用 MoveBaseAction),管理包含 10+ 目标点的复杂 序