精通图像处理算法及主流框架(PyTorch、TensorFlow),擅长立体超分辨率、图像去噪等任务。主导研发的跨视图注意力融合算法发表于SCI期刊,提出基于掩码的自监督去噪模型获IEEE收录,掌握多模态数据融合、注意力机制优化等前沿技术。
具备机器视觉全流程开发经验,曾参与智慧城市项目中车牌识别系统的优化,熟悉OpenCV、图像增强、目标检测等技术落地。掌握Hadoop生态技术,包括HDFS文件系统管理、YARN资源调度及MapReduce编程,拥有大型分布式集群搭建经验,成功优化过数据存储与计算资源分配方案。
熟悉Spark实时计算框架,能够设计高并发数据处理流程,具备TB级数据治理能力。熟悉AWS/Aliyun云平台部署,掌握Docker容器化技术。
拥有技术文档编写规范经验,主导过项目需求分析、技术方案设计及团队协作,持有PMP项目管理知识体系。
1.跨视图立体超分辨率算法研发: 针对双目视觉图像分辨率低、视差信息利用不足的问题,创新性提出跨视图注意力交互融合算法(CV-AIF),设计多尺度特征金字塔结构,通过动态权重分配机制实现左右视图特征互补。基于PyTorch搭建双分支网络,集成Swin Transformer模块增强长程依赖建模,在KITTI和Middlebury数据集上PSNR提升2.1dB,推理速度优化至0.08s/帧(较传统SRGAN提升30%)。2. 自监督图像去噪模型:创新设计:首创“由周边到中心”的掩码自监督训练范式(Around2Center),通过随机遮挡外围像素引导网络学习中心区域噪声分布,在无干净数据条件下实现SOTA去噪性能。
技术融合:结合对比学习与元注意力机制,在DND、SIDD数据集上SSIM达0.92,超越DnCNN等监督模型,为低光照安防监控提供免标注解决方案。3. 智能配送无人机系统开发:全栈实现:主导设计基于ROS的无人机自主导航系统,开发A*与RRT混合路径规划算法,融合激光雷达SLAM实现动态避障,目标定位误差<5cm。
硬件协同:优化STM32飞控与树莓派视觉模块通信协议,延迟降低至15ms,在模拟物流场景中完成98%的包裹精准投递。 4. 智慧停车车牌识别优化:改进YOLOv5车牌检测模型,引入通道剪枝技术压缩参数量45%,部署至海思Hi3516D芯片实现60FPS实时识别。搭建基于Kafka的车辆数据流处理管道,支持千级摄像头并发接入,误检率从4.2%降至1.1%。
双目视觉立体超分辨率系统,针对无人机航拍图像分辨率低、视差信息缺失问题,原创提出跨视图注意力融合算法(CV-AIF)。通过构建双分支特征金字塔网络,结合动态权重分配机制,实现左右视图互补特征提取与多尺度融合。技术亮点包括: 集成Swin Transformer模块,增强全局
基于自监督学习的低光照图像增强系统,创新提出Around2Center掩码训练范式,解决传统去噪模型依赖成对训练数据的瓶颈。核心技术包括: 设计"由周边到中心"的像素遮挡策略,引导网络学习噪声分布规律 融合对比学习与元注意力机制,在无监督条件下超越监督模型