ID:413144

w

数据采集

  • 公司信息:
  • 上海蓝矩信息科技有限公司
  • 工作经验:
  • 2年
  • 兼职日薪:
  • 500元/8小时
  • 兼职时间:
  • 下班后
  • 周六
  • 周日
  • 所在区域:
  • 上海
  • 闵行

技术能力

编程语言: Python、MATLAB(熟练), C、C#、JavaScript+HTML/CSS(掌握),ArcGIS/QGIS
熟悉的Python方向: 网络爬虫(requests、selenium、scrapy)、数据分析/数据清洗、数据可视化(绘图、地图可视化)、GUI界面(PyQt)、图像处理(PIL)、深度学习(NLP、图像分类)、Web开发(Flask)
其他技能: SQL(基本查询、Python连接数据库、空间数据库)、Docker、微信小程序、Google Colab

项目经验

2024.2 — 2024.5 基于大模型的遥感图像语义分割
项目简介:开源大模型用于遥感影像中建筑物提取
项目内容:自学PyTorch框架;完整实现从算法到可视化输出的全流程开发。基于SAM图像分割大模型,使
用CLIP模型对输入进行微调, 实现文字Prompt+少样本学习,并完成输出结果的可视化。

2025.5 — 2025.6 智能信息抽取应用开发
实现功能:输入文本,即可通过AI模型自动结构化关键信息生成人物简历、分配标签,无需人工过目。
本人工作:1.基于paddleNLP UIE(信息抽取+情感分类)接口,独立开发Flask应用,实现智能文本分析;
2.通过自创前后处理程序进行优化(有效提升复杂文本处理情况),将准确率提升到95%以上。
3.完成项目容器化(制作Docker镜像)

案例展示

  • 人物简历信息拆分应用开发

    人物简历信息拆分应用开发

    输入文本,即可通过AI模型自动结构化关键信息生成人物简历、分配标签,无需人工过目。 本人工作:1.基于paddleNLP UIE(信息抽取+情感分类)接口,独立开发Flask应用,实现智能文本分析; 2.通过自创前后处理程序进行优化(有效提升复杂文本处理情况),将准确率提升到

  • 从百度百科等网站采集人物信息

    从百度百科等网站采集人物信息

    开发地方政府领导信息采集工具:使用 Python (Selenium, lxml, Pandas) 与 HanLP NLP 模型,自动化抓取、解析并清洗百度百科页面,构建高质量的结构化人物数据库,具备处理复杂中文文本和异构网页表格的能力。

查看案例列表(含更多 0 个案例)

信用行为

  • 接单
    0
  • 评价
    0
  • 收藏
    0
微信扫码,建群沟通

发布任务

企业点击发布任务,工程师会在任务下报名,招聘专员也会在1小时内与您联系,1小时内精准确定人才

微信接收人才推送

关注猿急送微信平台,接收实时人才推送

接收人才推送
联系需求方端客服
联系需求方端客服