本文围绕遥感影像地块分割比赛展开,介绍了赛题任务、数据来源及简介。阐述了数据集、模型和参数的考虑思路,还提供了基于PaddleSeg的基线方案,包括安装依赖、配置数据集、模型训练和预测等步骤,最后总结了可改进之处,如增加数据增强等。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

1 题目概述
1.1 赛题任务:
对遥感影像进行像素级内容解析,并对遥感影像中感兴趣的类别进行提取和分类,以衡量遥感影像地块分割模型在多个类别(如建筑、道路、林地等)上的效果。 比赛中分析训练集数据和标签,训练深度学语义分割模型,完成测试集的预测并提交
1.2 数据来源
本赛题提供了多个地区已脱敏的遥感影像数据以及部分数据集的标签 训练数据集:train_and_label.zip 包括img_train(影像数据集)和lab_train(类别标签数据集)两个子文件夹,用于模型训练 img_train:66653张, lab_train:66653张,空间分辨率2米 包括和img_test.zip两个压缩包,
1.3 数据简介
样例图片及其标注如下图所示:
训练数据集文件名称:train_and_label.zip
包含2个子文件,分别为:训练数据集(原始图片)文件、训练数据集(标注图片)文件,详细介绍如下:
-
训练数据集(原始图片)文件名称:img_train
包含66,653张分辨率为2m/pixel,尺寸为256 * 256的JPG图片,每张图片的名称形如T000123.jpg。
-
训练数据集(标注图片)文件名称:lab_train
包含66,653张分辨率为2m/pixel,尺寸为256 * 256的PNG图片,每张图片的名称形如T000123.png。
备注: 全部PNG图片共包括4种分类,像素值分别为0、1、2、3。此外,像素值255为未标注区域,表示对应区域的所属类别并不确定,在评测中也不会考虑这部分区域。
2 整体思路
2.1 数据集考虑
(1)带标签的数据量充足,且目标类别较少(仅4类),可直接划分训练集和验证集,无需交叉验证
(2)遥感影像难免存在异物同谱的情况,加入注意力机制应该有帮助
(3)采用随机翻转进行数据增强
2.2 模型考虑
(1)首先选择Unet进行训练,提交后线上精度为0.3
(2)选择加入注意力机制的Att_Unet模型,提交后精度明显提升,达到0.51
(3)同时也尝试了SETR模型,效果没有Att_Unet好
2.3 参数考虑
(1)lr没有过多考虑,采用默认的学习率多项式衰减策略
(2)batch_size选择显卡能承受的最大值,一般从64、32、16...往下降
3 基于PaddleSeg的BaseLine
3.1 安装PaddleSeg及相关依赖
#使用Gitee进行下载PaddleSeg! git clone https://gitee.com/paddlepaddle/PaddleSeg.git#进入PaddleSeg库中安装相关依赖%cd ~/PaddleSeg/ !pip install -r requirements.txt
3.2 配置数据集
- 文件组织结构
img_train为有标签数据,将其按照8:2划分为训练集和验证集(比例自行设定)
img_testA为测试数据
remote_sensing
|
|--img_train
| |--xxx1.jpg
| |--xxx2.jpg
| |--...
|
|--lab_train
| |--xxx1.png
| |--xxx2.png
| |--...
|
|--train.txt
|
|--valid.txt
|
|--test.txt
#解压数据至/data/remote_sensing文件夹下!unzip -oq /home/aistudio/data/data80164/img_test.zip -d /home/aistudio/data/remote_sensing !unzip -oq /home/aistudio/data/data80164/train_and_label.zip -d /home/aistudio/data/remote_sensing
^C
%cd ~/data/remote_sensing# 生成 train.txt、valid.txt和test.txt列表文件import osimport glob
imgs = os.listdir('/home/aistudio/data/remote_sensing/img_train')with open("all_list.txt","w") as f: for img in imgs:
img = os.path.join('img_train',img)
label = img.replace('img','lab').replace('jpg','png')
content = img + ' ' + label + '\n'
f.write(content)# 训练集、验证集比例分别约80%、20%。!head -n 13331 all_list.txt > valid.txt #13331为验证集图片数量!tail -n 53322 all_list.txt > train.txt #53322为训练集片数量
/home/aistudio/data/remote_sensing
3.3 模型训练
- 为保证原始库的完整性新建模型配置文件和数据集配置文件,分别与相应原始数据文件同目录
模型配置文件:attention_unet_remote_sensing.yml(模型_remote_sensing.yml)
数据集配置文件:remote_sensing.yml
- 模型配置文件参数
batch_size设为8(调试),数据集路径更正
_base_: '../_base_/remote_sensing.yml'batch_size: 8iters: 80000lr_scheduler: type: PolynomialDecay learning_rate: 0.05 end_lr: 0.0 power: 0.9model: type: AttentionUNet pretrained: Null
- 数据集配置文件参数
num_classes设为4
batch_size:8train_dataset:
type: Dataset dataset_root: /home/aistudio/data/remote_sensing train_path: /home/aistudio/data/remote_sensing/train.txt num_classes: 4 transforms:
- type: Resize target_size: [512, 512]
- type: RandomHorizontalFlip
- type: Normalize mode: trainval_dataset: type: Dataset dataset_root: /home/aistudio/data/remote_sensing val_path: /home/aistudio/data/remote_sensing/valid.txt num_classes: 4 transforms:
- type: Resize target_size: [512, 512]
- type: Normalize mode: val optimizer: type: sgd momentum: 0.9 weight_decay: 4.0e-5lr_scheduler: type: PolynomialDecay learning_rate: 0.01 end_lr: 0 power: 0.9loss: types:
- type: CrossEntropyLoss coef: [1]
#模型训练,其中save_interval可根据batch_size变化而变化,个人习惯batch_size * save_interval ≈ len(train)#模型保存至PaddleSeg/output目录下%cd ~/PaddleSeg/
!python train.py \
--config configs/attention_unet/attention_unet_remote_sensing.yml \
--do_eval \
--use_vdl \
--save_interval 14000 \
--save_dir output
3.4 模型预测
- 加载训练好的模型,完成测试集的推理,结果保存在PaddleSeg/output/result目录下,下载后提交即可
#模型推理并保存结果至PaddleSeg/output/result目录下!python predict.py \
--config configs/attention_unet/attention_unet_remote_sensing.yml \
--model_path output/best_model/model.pdparams \
--image_path /home/aistudio/data/remote_sensing/img_testA \
--save_dir output/result
4 小结
- (1)本项目作为基于PaddleSeg进行遥感影像语义分割的BaseLine,完成了数据准备、模型训练和预测的流程
- (2)在数据集的分析上,可以从数据集光谱特征、类别分布情况等方面进一步分析和考虑,同时本次采取的数据增强措施很有限,采用更多诸如mixup等操作相信能进一步提高模型精度。另一方面由于地物分割存在尺度效应,即不同地物的最佳分割尺度不同,所以如果能将尺度考虑进去会更好。
- (3)在模型选择和构建上,注意力机制的加入能缓解异物同谱对地块分割的负面影响,对于分割效果有提升,当然其他方面也需要进一步考虑,例如模型参数中batch_size不一定越大越好,相应的lr也应该有所改变,输入图像的最佳尺寸的选择等。本次训练没有使用pretrained模型,加上后相信能在更少的epoch时取得更好的效果。










