文本分类核心是合理预处理、特征提取与模型匹配:清洗噪声、统一格式、分词去停用词;向量化选词袋/Tfidf/预训练词向量;小数据用逻辑回归等传统模型,大数据用BERT;评估需看F1、混淆矩阵与交叉验证。

用Python做文本分类,核心是把自然语言转换成机器能理解的数字特征,再用机器学习模型学习规律。关键不在代码多复杂,而在每一步是否合理:文本预处理是否去除了干扰、特征提取是否保留了区分度、模型选择是否匹配任务规模。
清洗和标准化文本
原始文本常含噪声,比如HTML标签、多余空格、特殊符号或大小写混杂。不统一格式会干扰后续向量化效果。
- 用re.sub()去掉URL、邮箱、多余标点(如r'http\S+|www\S+|@\S+')
- 统一转小写,避免“Apple”和“apple”被当成两个词
- 对中文需先分词(如用jieba),英文可直接按空格或用nltk.word_tokenize
- 停用词过滤要谨慎——新闻分类中“的”“了”可删,但情感分析里“不”“很”“太”必须保留
把文字变成数字向量
模型不能直接读句子,得靠向量化把文本映射成固定长度的数值数组。常用方法有三种,适用场景不同:
- 词袋(Bag-of-Words):统计每个词出现次数,简单快,适合短文本或基线实验;缺点是忽略词序和语义
- TfidfVectorizer:在词频基础上加权重,降低高频无区分度词(如“的”“是”)的影响,实战中比纯词袋更稳定
- 预训练词向量(如Word2Vec、FastText):每个词对应一个稠密向量,可计算相似度;适合数据少但需语义信息的任务;注意需对句子做平均或用更高级的句向量方法
选模型不追新,看任务特点
不是模型越深越好。小数据、短文本、类别少时,传统模型往往更稳、更快、更易解释:
篇文章是针对git版本控制和工作流的总结,如果有些朋友之前还没使用过git,对git的基本概念和命令不是很熟悉,可以从以下基本教程入手: Git是分布式版本控制系统,与SVN类似的集中化版本控制系统相比,集中化版本控制系统虽然能够令多个团队成员一起协作开发,但有时如果中央服务器宕机的话,谁也无法在宕机期间提交更新和协同开发。甚至有时,中央服务器磁盘故障,恰巧又没有做备份或备份没及时,那就可能有丢失数据的风险。感兴趣的朋友可以过来看看
立即学习“Python免费学习笔记(深入)”;
- 逻辑回归(LogisticRegression):速度快,系数可解读哪些词倾向哪类,适合入门和调试特征
- 朴素贝叶斯(MultinomialNB):对小样本友好,尤其适合新闻、邮件等主题分类
- SVM(LinearSVC):在中等规模TF-IDF特征上表现强,但调参稍敏感
- 深度模型(如LSTM、BERT)适合长文本、语义复杂或数据量大(万级+)场景;用transformers库可快速加载微调,但需GPU和更多训练时间
评估别只看准确率
类别不均衡时(比如95%是“正常”,5%是“垃圾邮件”),准确率可能虚高。必须看更细的指标:
- 用classification_report输出精确率、召回率、F1值,重点关注少数类的召回率(漏判代价高时尤其重要)
- 混淆矩阵(confusion_matrix)帮你定位错在哪两类之间频繁混淆(比如“科技”和“财经”新闻难分)
- 交叉验证(cross_val_score)比单次划分更能反映模型稳定性









