预训练CNN迁移学习可避免从零训练的高数据与算力需求,因ImageNet预训练模型已具备通用特征提取能力;推荐ResNet18/50入门,EfficientNet-B3或ViT-Base追求精度,MobileNetV2适合资源受限场景;四步为冻结主干、替换分类头、选择性解冻微调、加强数据增强与合理训练;需注意输入尺寸、模型模式切换及分层学习率设置。

为什么用预训练CNN做迁移学习
直接从零训练深度卷积网络需要大量标注数据和算力,而ImageNet等大规模数据集上预训练的模型(如ResNet、VGG、EfficientNet)已具备强大的通用图像特征提取能力。迁移学习就是复用这些“学到的视觉经验”,在小样本新任务上快速收敛、提升准确率。
常用预训练模型及选择建议
PyTorch和TensorFlow/Keras都内置主流模型。初学者推荐从ResNet18/50起步:结构清晰、参数适中、微调友好;追求精度可选EfficientNet-B3或ViT-Base(需注意ViT对数据增强更敏感);若设备资源有限,MobileNetV2兼顾速度与效果。不建议直接用原始VGG16——参数多、收敛慢、易过拟合。
四步完成迁移学习实战
1. 加载预训练模型并冻结主干
用torchvision.models.resnet18(pretrained=True)加载,然后执行for param in model.parameters(): param.requires_grad = False冻结全部层(或仅冻结前几层)。
2. 替换分类头(Classifier Head)
将最后一层全连接层(如model.fc)替换为适配你任务类别数的新层:model.fc = nn.Linear(512, num_classes)(ResNet18输出特征维度是512)。
3. 选择性解冻+微调
若新数据与ImageNet差异较大(如医学影像、卫星图),可解冻最后1–2个残差块,配合更低学习率(如1e-4)训练;其余层仍保持冻结。
4. 数据增强与训练策略
小数据集务必加强增强:随机裁剪、水平翻转、色彩抖动、AutoAugment或RandAugment;使用带权重衰减的AdamW优化器;早停(Early Stopping)配合验证集准确率监控,防止过拟合。
避坑提醒:常见失效原因
• 输入尺寸不匹配:确保预处理时统一缩放到模型要求尺寸(如ResNet默认224×224),且归一化参数用ImageNet均值标准差([0.485,0.456,0.406], [0.229,0.224,0.225])。
• 忘记切换模型模式:训练时调model.train(),验证/推理时必须调model.eval(),否则BatchNorm和Dropout行为异常。
立即学习“Python免费学习笔记(深入)”;
• 学习率设得太高:新fc层可用1e-3,但微调主干时建议1e-5~1e-4;用分层学习率(如torch.optim.AdamW([{'params': model.fc.parameters(), 'lr': 1e-3}, {'params': model.layer4.parameters(), 'lr': 1e-4}]))更稳妥。










