参与长三角数字孪生实验室核心项目开发,覆盖船舶模拟器、ROV 仿真平台、AUV 数字孪生联动及海工平台四大场景。通过搭建轻量化数字孪生框架,提升多设备实时联动响应速度;优化船舶航行物理建模与工况仿真精度,解决复杂海况下的性能瓶颈;升级 ROV 仿真的传感器数据交互效率与操作流畅度,平衡物理精度与计算性能;强化 AUV 集群协同算法与水下通信适配,实现无延迟数字孪生联动;优化海工平台虚拟模型渲染与状态监控机制,保障多场景稳定运行。...
嵌入式Linux系统开发,具备从底层驱动到上层应用的全栈能力。核心技能包括:基于主流平台(如NXP i.MX、Rockchip)进行U-Boot移植与内核裁剪,熟练使用设备树配置硬件资源;通过Buildroot/Yocto构建定制化根文件系统;熟练开发字符设备、平台设备驱动及I2C/SPI等外设驱动接口。在应用层,精通C/C++多进程/多线程编程,掌握进程间通信及网络编程,并能使用GDB、strace等工具进行性能优化与调试。曾成功为间隔棒安装机器人开发嵌入式Linux主控系统,实现实时控制与多协议通信,确保系统稳定高效运行。...
立项原因:国内车企自动巡航多依赖激光雷达等多传感器融合,硬件成本偏高;特斯拉纯视觉方案虽成本低,但适配国内混合交通、非标准道路标识等复杂路况的算法精度不足,本项目旨在解决 “低成本纯视觉方案适配本土低速场景自动巡航” 的技术落地问题。 行业场景、业务背景:聚焦智能网联汽车及低速无人车(如园区物流车、短途接驳小车)行业场景,契合国内城市园区、封闭厂区等短途低速交通场景下,对低成本、高适配性自动巡航硬件方案的业务需求,助力填补国内纯视觉自动巡航在本土复杂路况下的技术应用缺口。 1、项目具体功能模块包含 3 大核心模块:①树莓派 4B 硬件控制模块(负责小车动力、转向的指令输出);②纯视觉场...
1.框架采用模块化构建,分为硬件抽象层,算法处理层,平台服务层 2.视觉算法采用Halcon做为主要算法库 3.兼容相机:海康,基恩士,大华,Basler等 4.工具块分为:图像处理,检测识别,文件通讯,变量工具,对位工具,逻辑工具,系统工具,3D检测,深度学习等 5.通信模块:集成工业协议(Modbus、MCBinary、S7_1200、S7_1500、FinsTcp、AM600TCP等) 6.数据管理:日志系统记录运行状态(支持按日期分割存储),结合数据库存储历史数据 7.可视化界面:WinForms开发交互面板,动态显示检测结果(缺陷标记、OCR文本)、性能指标及实时图像流 ...
1. 智能灵魂:大模型驱动的深度对话 接入先进的大语言模型作为核心大脑,使机器人具备丰富的知识储备和强大的上下文理解能力。 支持多轮、深度的自然语言对话,能够进行情感交流、创意写作、逻辑推理、知识问答等,让每一次交流都富有价值且生动有趣。 2. 生动形象:Spine 2D骨骼动画机器人 采用 Spine-runtimes 引擎,为机器人打造了灵活的2D骨骼动画形象。 机器人不再是冰冷的文字,而是能够根据对话内容实时呈现丰富的表情、口型和肢体动作(如点头、挥手、思考),极大增强了交互的趣味性与亲和力。 3. 能听会说:全双工实时语音交互 高精度实时语音识别 (ASR):...