具有Python 编程基础,能够在大模型开发中编写脚本与自动化工具。
熟悉多种本地化部署LLM 的方式,包括Ollama、vLLM,并了解基于Docker 的容器化部署流程。
具备使用FastAPI 构建RESTful API 的经验,能够熟练使用Postman 进行接口调试与测试。
熟悉主流大模型应用开发框架,包括LangChain、LangGraph、Agentscope,具备阅读与理解官方技术文档的能力。
理解Agent 工作模式与RAG(检索增强生成)系统原理,掌握其设计思路、构建流程及知识库质量评估方法。
2024.8-2024.9汽车维修手册智能问答助手
基于LangChain框架构建完整RAG工作流,负责向量检索、相关性排序及提示词工程模块的设计与验证,确保检索结果与
生成内容的一致性与准确性。
项目描述
该项目针对传统维修手册查询繁琐、效率低下的痛点,将非结构化的原厂维修手册转换为可交互的智能知识库。用户可通过对话
形式提问直接获取精准的解答,极大提升了维修信息检索的效率与体验。
主要工作
将原始PDF技术手册转换为结构化Markdown文本,设计并执行文本分割策略测试,评估不同分块方式对检索效果的影响。
对于图片式数据,转换为URL路径插入文本切片中。
设计并实施多轮检索性能测试,包括准确率、召回率及响应时间指标,优化嵌入模型,提升系统在复杂查询下的表现。
工作成果
将信息检索耗时从人工查阅的10-15分钟/次降至15秒内自动响应,实现从“分钟级”到“秒级”的跨越。
在返回结构化文本内容的同时,可提取并渲染对应配图,增强技术手册查询的完整性与实用性。
技术
Python、LangChain、RAG、FAISS
2024.10-2024.12
项目描述
智能技术支持客服系统
该项目旨在构建一个基于企业内部知识库的智能客服系统,通过自动化处理技术支持和售后咨询问题,显著降低人力成本并提升
响应效率。系统核心能力包括:利用提示词工程与模型微调,实现符合专业客服术语与语气的自然对话;并基于结构化技术文档
与售后手册,实现精准的知识检索与问答。
主要工作
学习并参与对Qwen2.5-7B模型的微调,学习LoRA技术,降低显存占用,提升训练效率。
学习通过SSH 远程服务器进行微调与调试,使用vLLM 部署微调后的模型,支持多用户并发访问与远程API调用。
搭建接口并进行测试,确保模型能够集成到应用场景中并稳定运行。
工作成果
成功部署可稳定运行的智能客服模型,支持多用户并发访问。
通过系统自动化响应,提升常见技术问题的处理效率,有效分流人工客服压力。
完成从模型微调到服务部署的全流程参与与测试,为后续同类AI项目积累了实战经验与标准化流程。
技术
Python、LLaMA-Factory、LoRA、vLLM、SSH
2025.10-2025.11
项目描述
私有知识库系统开发
该项目旨在构建并集成一套公司内部私有知识库系统,集中管理企业内部文档与知识资产,方便员工快速检索与学习,提升组织
知识流转效率。
主要工作
参与私有知识库系统的功能开发与测试,负责文档管理模块的测试验证,包括文本切片策略、元数据设计、标签过滤检索
等,并评估系统召回率与准确率。
探索并应用国产AI开发框架Agentscope,设计并测试多智能体(Multi-Agent)协同检索工作流,以提升复杂查询下的检
索精度。
使用Docker完成系统容器化部署,发布至内部服务器虚拟机环境,确保服务可移植性与环境一致性。
基于FastAPI开发并测试系统接口,编写与维护接口文档,保障前后端集成稳定性与协作效率。
工作成果
成功部署可稳定运行的私有知识库系统,支持企业级知识管理与智能检索。
通过多智能体检索工作流优化,实现高精度检索与普通检索双模式切换。
技术
Python、Agentscope、RAG、Chroma、Docker、FastAPI、Postman