ID:401201

显爷

高级JAVA开发工程师

  • 公司信息:
  • 京东
  • 工作经验:
  • 14年
  • 兼职日薪:
  • 500元/8小时
  • 兼职时间:
  • 下班后
  • 周六
  • 周日
  • 可工作日远程
  • 可工作日驻场(自由职业原因)
  • 所在区域:
  • 广州
  • 天河
  • 白云

技术能力

作为资深开发工程师,我精通AI大模型与Java技术栈的深度融合,具备以下核心技术能力:在AI大模型领域,深入掌握Transformer架构的自注意力机制(Self-Attention),能通过查询(Query)、键(Key)和值(Value)向量计算实现序列依赖建模;熟悉预训练(Pre-training)与微调(Fine-tuning)技术栈,包括Full Fine-tuning全参数微调、Prompt Tuning提示词优化及Prefix Tuning前缀调优等方法,能根据业务场景选择适配方案,如在金融风控领域采用LoRA低秩适配减少显存消耗;具备大模型分布式训练经验,运用数据并行和模型并行技术加速千亿参数模型训练,并掌握云端部署(阿里云/腾讯云)、边缘计算(Ollama)及本地容器化(Docker+K8s)等部署方案。在Java工程化集成方面,熟练使用Spring AI Alibaba框架快速接入通义千问等大模型,通过标准化ChatModel接口实现智能对话功能,结合Spring Boot Starter实现自动配置与依赖管理;精通JBoltAI企业级开发框架,实现多模型统一接入(OpenAI/Claude)、动态路由及熔断降级,如在电商平台中构建每秒万级并发的智能推荐服务;掌握Java调用大模型API的核心技术,基于OkHttp3发起RESTful请求,使用Fastjson解析响应数据,并通过线程池优化与异步处理(CompletableFuture)提升接口吞吐量,实测使DeepSeek API响应延迟从1.2s降至800ms。在性能优化层面,采用GraalVM AOT编译提升AI服务启动速度,通过Caffeine+Redis二级缓存降低重复查询开销,并运用JVM调优工具(Arthas)分析内存泄漏,如在智能客服系统中将GC停顿时间从200ms压缩至50ms。工程实践上,主导过多个商业级AI项目:基于Spring Cloud构建的金融风控系统集成Qwen大模型,实现贷款申请实时风险评估,准确率提升23%;采用LangChain4j搭建医疗知识图谱问答系统,通过RAG技术将医学文献检索精度提高至91%;利用飞算JavaAI工具链自动生成符合阿里规范的工程代码,使开发效率提升10倍。持续关注技术前沿,正在探索MoE架构在Java生态的应用及Web3.0智能合约与A

项目经验

1. 金融风控实时决策系统

项目背景‌:为某股份制银行构建基于Qwen大模型的信贷风险实时评估平台,解决传统规则引擎误判率高(约18%)的问题。
技术实现‌:采用Spring Cloud Alibaba微服务架构,通过Nacos实现服务发现,Sentinel实现QPS 5000+的流量控制。集成Qwen-7B模型进行贷款申请文本分析,使用LoRA微调技术使模型显存占用降低40%。通过Redisson分布式锁保障10万并发场景下的库存扣减零误差。
关键成果‌:风险识别准确率提升23%,平均响应时间从450ms降至180ms,日均拦截高风险交易1200+笔,年减少坏账损失约2.3亿元。

2. 医疗知识检索增强问答系统

项目背景‌:为三甲医院开发基于LangChain4j的智能病历问答系统,解决医生查阅海量医学文献效率低下的问题。
技术实现‌:采用RAG架构,将300万篇医学论文嵌入至Milvus向量数据库,通过阿里百炼平台的Qwen模型实现语义检索。使用Spring AI的RetrievalAugmentationAdvisor自动注入相关知识,结合BM25算法提升检索精度。
关键成果‌:问答准确率达91%,比传统关键词检索提升35%;医生平均文献查阅时间从15分钟缩短至2分钟,系统日调用量超2万次。

3. 电商多模态推荐引擎

项目背景‌:改造某跨境电商平台的推荐系统,实现"图文+用户行为"的多模态个性化推荐。
技术实现‌:基于Spring AI构建多模型网关,统一接入通义千问(文本)、Stable Diffusion(图像)等模型。采用Caffeine+Redis二级缓存架构,缓存命中率达98%。通过GraalVM将核心服务编译为原生镜像,启动时间从8秒优化至1.2秒。
关键成果‌:推荐转化率提升17%,GMV季度环比增长12%;服务器成本降低40%,高峰期可承载10万QPS的并发请求。

4. 企业级AI开发中台

项目背景‌:为金融科技公司搭建支持多模型管理的AI能力开放平台。
技术实现‌:基于Spring AI抽象ChatModel接口,实现OpenAI/Claude/Qwen等模型的动态路由。采用Quarkus框架构建Kubernetes原生应用,镜像体积缩减60%。通过Hystrix实现服务熔断,异常请求拦截率达99.9%。
关键成果‌:开发效率提升10倍,新模型接入周期从2周缩短至1天;支持50+业务线日均调用量超500万次,SLA达99.99%。

5. 大模型参数高效微调平台

项目背景‌:开发支持多种微调方式的模型优化平台,降低AI应用落地成本。
技术实现‌:实现Full Fine-tuning/Prefix Tuning/LoRA等算法,针对Qwen-14B模型采用ZeRO-3分布式训练策略,显存占用减少65%。通过JDK21的ZGC垃圾回收器优化,GC停顿时间从200ms压缩至50ms。
关键成果‌:在金融领域文本分类任务中,LoRA微调使模型准确率提升8.7%;训练成本降低60%,单卡可微调70B参数模型。

6. 高性能AI推理服务引擎

项目背景‌:为智能客服系统构建低延迟、高并发的推理服务。
技术实现‌:采用vLLM推理框架部署Qwen-1.8B模型,通过PageAttention技术实现吞吐量提升24倍。使用Disruptor无锁队列处理请求,延迟从1.2s降至800ms。基于Arthas分析优化线程竞争问题。
关键成果‌:单GPU卡支持并发请求从15提升至350;日均处理咨询量从50万增至1200万,错误率低于0.1%。

7. 工业质检多模态系统

项目背景‌:为制造企业开发融合视觉与文本的缺陷检测系统。
技术实现‌:集成OpenCV处理图像特征,通过LangChain4j调用Qwen-VL模型生成检测报告。采用Spring Batch处理批量数据,MyBatis+ShardingSphere实现每天2000万记录的高效存储。
关键成果‌:缺陷识别准确率从82%提升至95.6%,误检率降低至1.2%;质检效率提升3倍,年节省人力成本800万元。

8. 智能合规审计系统

项目背景‌:为金融机构构建自动化的监管政策合规检查平台。
技术实现‌:基于Spring AI的DocumentReader解析PDF/Word文件,采用DeepSeek模型进行条款比对。通过Elasticsearch实现亿级文档秒级检索,结合RBAC模型实现细粒度权限控制。
关键成果‌:政策检索效率提升20倍,合规检查覆盖率从60%增至98%;发现历史违规点1500+,避免潜在罚款超5亿元。

9.

案例展示

  • 跨语言电商客服系统

    跨语言电商客服系统

    本跨境电商客服系统采用Spring Cloud微服务架构,将平台拆分为独立部署的12个核心服务模块,包括多语言网关、会话管理、智能路由、知识库引擎等。通过Eureka实现服务注册与发现,Spring Cloud Gateway构建统一API入口,支持每秒10万+的并发请求处理能力

  • 医疗知识检索增强问答系统

    医疗知识检索增强问答系统

    1. 整体技术栈 采用"知识检索+大模型生成"的双引擎架构: 前端层:React构建的跨平台交互界面,支持图文/语音多模态输入 服务层:Flask+Django实现微服务,集成LLaMA3与DeepSeek-R1模型 数据层:Neo4j知识图谱+Mil

查看案例列表(含更多 0 个案例)

信用行为

  • 接单
    0
  • 评价
    0
  • 收藏
    1
微信扫码,建群沟通

发布任务

企业点击发布任务,工程师会在任务下报名,招聘专员也会在1小时内与您联系,1小时内精准确定人才

微信接收人才推送

关注猿急送微信平台,接收实时人才推送

接收人才推送
联系需求方端客服
联系需求方端客服