基于 PyTorch 的 Bi-LSTM + Attention 作为基线模型(Baseline)。实现了中文字符级词表构建、序列截断与填充等数据预处理链路,验证了时序模型与注意力机制在中文情感分类上的有效性。
引入 bert-base-chinese 预训练模型进行全量数据(逾 21 万条)的下游任务微调。针对原始数据集正负样本极度不平衡的痛点优化了评估策略,最终在测试集上取得了 89.36% 的准确率(Accuracy)和 77.08% 的宏平均 F1-Score,精准识别出长尾的负面及中立评价。
独立打通了从数据清洗(Pandas)、批次化处理(DataLoader)、训练评估到模型本地化保存的完整 NLP 流水线。并以此为基础封装了轻量级的交互式推理脚本,实现了从任意相关文本输入到情感标签及置信度输出的实时预测。