1. 复杂系统架构设计与优化
主导多个千万级用户量系统的微服务重构,基于 Spring Cloud Alibaba 搭建高可用架构,通过 Nacos动态配置 + Sentinel集群限流 实现系统稳定性提升40%
设计并落地 DDD领域驱动 的订单交易系统,通过聚合根与界限上下文划分,降低跨服务耦合度,支撑日均百万级订单处理
针对数据库性能瓶颈,主导 MySQL分库分表(ShardingSphere) + TiDB分布式方案 迁移,QPS峰值从5k提升至3w+
2. 高并发与分布式技术攻关
在电商大促场景中,设计 三级缓存架构(Caffeine+Redis+MySQL),结合 RocketMQ削峰填谷,成功应对瞬时10w+/秒请求,系统零故障
解决分布式事务难题,基于 Seata AT模式 + 本地消息表 实现跨6个微服务的最终一致性,事务成功率从92%提升至99.8%
优化JVM性能,通过 G1垃圾回收器调优 + 堆外内存控制,将Full GC频率从日均5次降至每周1次
3. 核心技术深度与工程化实践
深入 JVM字节码层 ,通过 Arthas动态诊断 + ASM工具 实现核心服务热修复,减少生产环境停机时间80%
搭建企业级 CI/CD体系,整合 Kubernetes滚动发布 + Apollo灰度配置,发布效率提升60%
自研 通用幂等框架(基于Redis+Lua+注解),解决分布式系统重复提交问题,被集团多个事业部复用
4. 新技术落地与团队赋能
推动 云原生转型:将传统Spring Boot服务容器化(Docker),并通过 Service Mesh(Istio) 实现服务治理与可观测性
搭建 智能监控体系:整合 Prometheus指标采集 + ELK日志分析 + SkyWalking全链路追踪,故障定位时间缩短至5分钟内
主导 研发规范制定:代码审查机制(SonarQube)、API设计标准(OpenAPI 3.0)、微服务契约测试(Pact)
1. 直播电商支付清结算系统(支撑抖音电商日均50亿交易)
业务痛点:直播电商大促期间订单量激增(峰值QPS 8w+),原有系统存在支付超时、资金对账误差等问题
技术方案:
设计 TCC分布式事务框架(基于Seata改造),结合 本地消息表补偿机制,保障跨支付、库存、优惠券服务的最终一致性
引入 分库分表+热点账户动态缓存(ShardingSphere + Redis LUA脚本),解决高并发扣款场景下的数据库锁竞争问题
搭建 实时对账引擎:通过Flink SQL实时比对支付流水与第三方渠道数据,异常检测延迟从小时级降至10秒内
成果:
支撑2023年双11期间 单日交易额破120亿,支付成功率达 99.99%
资金对账准确率从99.5%提升至 99.999%,获部门年度 技术突破奖