特征构建是从业务理解出发,通过时间/地址/文本解析、统计聚合、类别编码和模型反馈迭代等方法加工原始数据,决定模型80%落地效果。

特征构建不是简单地把数据丢给模型,而是帮模型“看懂”数据背后的规律。好的特征能让简单模型跑出好效果,差的特征再强的算法也难救。
从原始字段里挖出隐藏关系
日期、地址、文本这类字段表面看是字符串或数字,实际藏着大量结构信息。比如订单时间不只是“2024-05-12 14:30”,它可以拆出星期几、是否节假日、一天中的时段(早/午/晚/深夜)、距离周末还有几天等。又比如用户地址,提取省、市、是否一线城市、城乡类型,比直接用完整地址编码更有业务意义。
- 用 pandas.dt 快速提取时间特征:`.dt.hour`, `.dt.dayofweek`, `.dt.is_month_start`
- 用正则或 geopy 解析地址,再映射到行政层级或经济标签
- 对长文本做关键词匹配(如“退款”“投诉”“加急”),生成布尔型信号特征
用统计聚合制造“上下文感知”特征
单条样本孤立存在时信息有限,但结合群体行为就变得有判别力。例如一个用户的单次消费额本身没意义,但“该用户过去7天平均消费 vs 同城市同年龄段用户均值”就能反映异常或潜力。
- 按用户ID、设备号、IP段等分组,计算滑动窗口统计:均值、标准差、最大最小比、变化斜率
- 用 featuretools 自动挖掘实体关系图上的聚合路径(比如“用户←订单←商品←品类”,可生成“该用户购买过多少个不同品类”)
- 避免未来信息泄露:滚动统计必须严格限定在当前时间点之前的数据
让类别型变量真正表达差异
直接用 LabelEncoder 把“北京=0,上海=1,广州=2”喂给模型,等于告诉它“上海比北京大1,广州比上海大1”——这显然不对。目标编码(Target Encoding)或频率编码(Frequency Encoding)更合理,尤其当类别数多、部分类别样本少时。
立即学习“Python免费学习笔记(深入)”;
- 目标编码:用该类别的目标变量均值替代原始值(需加平滑防止过拟合,如 `mean + (global_mean × alpha) / (count + alpha)`)
- 频率编码:用该类别出现频次替代,适合无监督或目标不可用场景
- 对高基数类别(如商品ID),先聚类或按目标分布分桶,再编码
用模型反馈迭代优化特征
特征好不好,不能只看相关系数或单特征重要性。把候选特征加入训练流程,用交叉验证观察AUC或RMSE变化;再用 SHAP 或 Permutation Importance 查看它们在最终模型里的真实贡献。
- 每次只增/删1~2个特征,对比验证集指标波动,避免多重共线性干扰判断
- 发现某特征在训练集提升明显但验证集不涨?可能是过拟合或数据泄漏,回头检查构造逻辑
- SHAP summary plot 能直观看出特征影响方向和强度,比单纯排序更有解释力
特征构建没有银弹,但有清晰路径:从业务理解出发,用统计和结构化思维加工原始数据,靠模型反馈闭环验证。它不依赖最前沿算法,却决定80%的落地效果。










