ID:219349

seven

python数据开发工程师

  • 公司信息:
  • 浩鲸云计算科技股份有限公司
  • 工作经验:
  • 10年
  • 兼职日薪:
  • 700元/8小时
  • 兼职时间:
  • 下班后
  • 所在区域:
  • 重庆
  • 全区

技术能力

本人精通 Python 全栈开发技术,熟练掌握 Python 核心语法及常用第三方库(包括 requests、Scrapy、BeautifulSoup、Pandas、NumPy、Selenium、Pytest、cv2、open3d 等),能独立完成各类 Python 开发需求。在爬虫领域,可基于合规原则开发定向数据爬取脚本,处理反爬机制(如验证码、IP 代理池),实现数据批量采集与清洗;自动化测试方向,擅长使用 Pytest 框架搭建接口 / UI 自动化测试体系,编写测试用例并生成可视化测试报告;数据处理与分析方面,可通过 Pandas、NumPy 完成海量数据清洗、转换、统计,结合 Matplotlib/Seaborn 实现数据可视化,输出可落地的分析结论;同时熟练编写自动化办公、运维类 Python 脚本,解决各类重复性工作场景需求。此外,精通 SQL 语言(MySQL/PostgreSQL),能完成复杂多表关联查询、数据索引优化,熟悉 Linux 常用命令(如文件操作、进程管理、环境部署),可独立在 Linux 环境下完成 Python 项目的部署与运行,能高效对接企业级数据处理、自动化开发、爬虫定制等各类 Python 相关需求。

项目经验

1、央企汽车 BEV 项目:主导基于 Python 的全流程数据处理工作,运用 Pandas、NumPy 对海量汽车场景原始数据进行结构化分组送标,通过 cv2/open3d 构建可视化验证体系,精准校验标注数据的完整性、准确性与一致性,筛选出符合算法训练标准的高质量数据并完成标准化打包交付。该环节的落地有效提升了 BEV 算法模型训练效率 30% 以上,验证准确率提升 25%,保障了汽车 BEV 算法研发的核心数据供给。
2、阿里云全域资产(DataPro)项目:负责核心数据指标开发与可视化落地,在 DataPhin 平台深度融合 Python 与 SQL 脚本,完成多源异构数据的清洗、整合、关联分析,独立完成 173 个全域资产核心指标(含资产盘点、使用效率、成本拆解等维度)的开发与落地,并基于 Quick BI 搭建交互式可视化报表,报表覆盖企业资产全生命周期管理场景,为客户提供了可直接落地的资产数据决策依据。
3、广发银行数据产品项目:基于 Hadoop 大数据框架,使用 SQL 开发高性能离线数据处理脚本,完成金融业务全流程核心指标(客户资产、交易流水、风险评级、产品转化率等)的开发与迭代,脚本兼顾数据处理效率与金融数据合规性,支撑了银行数据产品的日常运营与管理层决策分析,保障了千万级金融数据处理的时效性与准确性。

案例展示

  • 某学校自动化办公

    某学校自动化办公

    本人独立负责某学校食堂表格自动化脚本的全流程开发与落地,核心解决该校食堂每日填写采购、入库、库存等多类表格流程繁琐、易出错、耗时久的痛点。项目中全程主导需求梳理、技术选型与代码实现,针对该校专属的食堂表格体系,运用 Python 的 cv2(辅助表格格式校验)、openxlsx(

  • CVE漏洞信息获取并入库

    CVE漏洞信息获取并入库

    本人独立完成 CVE/CWE 漏洞数据自动化爬取与入库系统的全流程开发,核心解决网络安全领域人工收集漏洞数据效率低、数据不完整、更新不及时的痛点。项目中全程主导爬虫架构设计、数据处理逻辑开发与数据库适配:基于 Python 开发多线程爬虫,通过 requests/Scrapy 框

查看案例列表(含更多 0 个案例)

信用行为

  • 接单
    0
  • 评价
    0
  • 收藏
    0
微信扫码,建群沟通

发布任务

企业点击发布任务,工程师会在任务下报名,招聘专员也会在1小时内与您联系,1小时内精准确定人才

微信接收人才推送

关注猿急送微信平台,接收实时人才推送

接收人才推送
联系需求方端客服
联系需求方端客服