本项目基于PaddleDetection套件的人脸检测模块和VGG情绪七分类模型,实现从图片中检测人脸并分类表情。先介绍项目背景、意义等,再说明fer2013数据集处理过程,构建VGG网络训练,经100轮迭代精度达63%左右,还结合PaddleDetection的人脸识别模型,最后尝试ResNet34优化,指出不足与改进方向。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

PaddleDetection:PaddleDetection为基于飞桨PaddlePaddle的端到端目标检测套件,内置30+模型算法及250+预训练模型,覆盖目标检测、实例分割、跟踪、关键点检测等方向,其中包括服务器端和移动端高精度、轻量级产业级SOTA模型、冠军方案和学术前沿算法,并提供目标检测、实例分割、多目标跟踪、关键点检测等多种能力。本次项目就是基于PaddleDetection先进行了人脸识别,并利用Paddle组建VGG网络以实现了表情识别。
人脸表情识别(facialexpression recognition, FER)是计算机视觉领域中图像分类的一个最重要的应用场景。相较于目标检测、实例分割、行为识别、轨迹跟踪等难度较大的计算机视觉任务,图像分类只需要让计算机『看出』图片里的物体类别,相对更为基础一些,但也极为重要,广泛应用于现实生活中的各个场景。
本项目基于PaddleDetection套件中的人脸检测模块和VGG情绪七分类模型联合构建而成,可以直接从给定图片中检测出人脸目标并进行表情分类,判定图中的人正处于何种情绪,并可视化识别结果。 其中的人脸检测模块直接使用了PaddleDetection套件来实现。VGG情绪七分类模型则是基于Paddle进行了自组网,并基于fer2013人脸表情数据集训练而得来,模型精度在63%左右。
人脸表情识别(facialexpression recognition, FER)是计算机视觉领域中图像分类的一个最重要的应用场景,相较于目标检测、实例分割、行为识别、轨迹跟踪等难度较大的计算机视觉任务,图像分类只需要让计算机『看出』图片里的物体类别,更为基础但极为重要。我们今天要讲解的案例——人脸表情识别近年来引起了学术界和工业界的研究热潮,因为表情是我们在日常交流中非常重要的表达方式之一,在无法获取说话人语气的情况下,表情就成为了理解语言含义不可或缺的一部分。FER是一门交叉学科,涉及到计算机视觉、人机交互、生理学、心理学、模式识别等研究领域。在社会中的很多领域,例如机器人制造,自动化,人机交互、安全、医疗、驾驶和通信等,表情识别同样具有很高的实用价值。
表情识别的整体流程如下:
%cd /home/aistudio !unzip -oq data/data150109/archive.zip -d ./emotic
/home/aistudio
import osimport cv2import tqdmdef make_new_dir(root_dir, tag, save_dir):
img_root = os.path.join(root_dir, tag)
img_dir_list = os.listdir(img_root) if not os.path.isdir(save_dir):
os.mkdir(save_dir) print(img_dir_list) for img_dir in tqdm.tqdm(img_dir_list):
img_folder = os.path.join(img_root, img_dir)
img_list = [f for f in os.listdir(img_folder) if f.endswith('.jpg')]
name_first = img_dir[:2].upper() for index, filename in enumerate(img_list):
img = cv2.imread(os.path.join(img_folder, filename), -1)
save_name = name_first+"{0:0>5}.jpg".format(index)
cv2.imwrite(os.path.join(save_dir, save_name), img)root_dir = r"emotic"save_dir = r"train"make_new_dir(root_dir, "train", save_dir) # 制作训练集
root_dir = r"emotic"save_dir = r"test"make_new_dir(root_dir, "test", save_dir) # 制作测试集
# 随机移动10%数量的图像到val文件夹中import shutilimport osimport randomdef move2newDir(inputFolder, saveFolder):
filenames = [f for f in os.listdir(inputFolder) if f.endswith('.jpg')]
random.shuffle(filenames)
num_val = int(0.1*len(filenames)) if not os.path.isdir(saveFolder):
os.mkdir(saveFolder)
for index, filename in enumerate(filenames):
src = os.path.join(inputFolder,filename)
dst = os.path.join(saveFolder,filename)
shutil.move(src, dst) if index == num_val: breakinputFolder = r"train"saveFolder = r"val"move2newDir(inputFolder, saveFolder)
import osimport numpy as npimport matplotlib.pyplot as plt
%matplotlib inlinefrom PIL import Image#选取 test文件夹 作为图片路径DATADIR = 'test' # 文件名以N开头的是普通表情的图片,以H开头的是高兴图片,以S开头的是惊讶的图片#file0-3选取了三个文件夹里的三个表情file0 = 'NE00127.jpg'file1 = 'HA00453.jpg'file2 = 'SU00224.jpg'# 读取图片img0 = Image.open(os.path.join(DATADIR, file0))
img0 = np.array(img0)
img1 = Image.open(os.path.join(DATADIR, file1))
img1 = np.array(img1)
img2 = Image.open(os.path.join(DATADIR, file2))
img2 = np.array(img2)# 画出读取的图片plt.figure(figsize=(16, 8))
f = plt.subplot(131)
f.set_title('0', fontsize=20)
plt.imshow(img0)
f = plt.subplot(132)
f.set_title('1', fontsize=20)
plt.imshow(img1)
f = plt.subplot(133)
f.set_title('2', fontsize=20)
plt.imshow(img2)#plt展示出三个表情plt.show()<Figure size 1152x576 with 3 Axes>
import cv2import randomimport numpy as npimport os# 对读入的图像数据进行预处理def transform_img(img):
# 将图片尺寸缩放道 224x224
img = cv2.resize(img, (224, 224)) # 读入的图像数据格式是[H, W, C]
# 使用转置操作将其变成[C, H, W]
img = np.transpose(img, (2,0,1))
img = img.astype('float32') # 将数据范围调整到[-1.0, 1.0]之间
img = img / 255.
img = img * 2.0 - 1.0
return img# 定义训练集数据读取器def data_loader(datadir, batch_size=20, mode = 'train'):
# 将datadir目录下的文件列出来,每条文件都要读入
filenames = os.listdir(datadir) def reader():
if mode == 'train': # 训练时随机打乱数据顺序
random.shuffle(filenames)
batch_imgs = []
batch_labels = [] for name in filenames:
filepath = os.path.join(datadir, name)
img = cv2.imread(filepath)
img = transform_img(img) #依次读取每张图片的名称首字母用于标记标签
# 7类表情 'sad', 'disgust', 'happy', 'fear', 'surprise', 'neutral', 'angry'
# SA开头表示sad表情用0标签
# DI开头表示disgust表情用1标签
# HA开头表示happy表情用2标签,以此类推
if name[:2] == 'SA':
label = 0
elif name[:2] == 'DI':
label = 1
elif name[:2] == 'HA':
label = 2
elif name[:2] == 'FE':
label = 3
elif name[:2] == 'SU':
label = 4
elif name[:2] == 'NE':
label = 5
elif name[:2] == 'AN':
label = 6
else: raise('Not excepted file name') # 每读取一个样本的数据,就将其放入数据列表中
batch_imgs.append(img)
batch_labels.append(label) if len(batch_imgs) == batch_size: # 当数据列表的长度等于batch_size的时候,
# 把这些数据当作一个mini-batch,并作为数据生成器的一个输出
imgs_array = np.array(batch_imgs).astype('float32')
labels_array = np.array(batch_labels).reshape(-1, 1) yield imgs_array, labels_array
batch_imgs = []
batch_labels = [] if len(batch_imgs) > 0: # 剩余样本数目不足一个batch_size的数据,一起打包成一个mini-batch
imgs_array = np.array(batch_imgs).astype('float32')
labels_array = np.array(batch_labels).reshape(-1, 1) yield imgs_array, labels_array return reader# 定义验证集数据读取器def valid_data_loader(datadir, batch_size=20, mode='valid'):
filenames = os.listdir(datadir) def reader():
batch_imgs = []
batch_labels = [] # 根据图片文件名加载图片,并对图像数据作预处理
for name in filenames:
filepath = os.path.join(datadir, name) # 每读取一个样本的数据,就将其放入数据列表中
img = cv2.imread(filepath)
img = transform_img(img) #根据名称判断标签
if name[:2] == 'SA':
label = 0
elif name[:2] == 'DI':
label = 1
elif name[:2] == 'HA':
label = 2
elif name[:2] == 'FE':
label = 3
elif name[:2] == 'SU':
label = 4
elif name[:2] == 'NE':
label = 5
elif name[:2] == 'AN':
label = 6
else: raise('Not excepted file name') # 每读取一个样本的数据,就将其放入数据列表中
batch_imgs.append(img)
batch_labels.append(label) if len(batch_imgs) == batch_size: # 当数据列表的长度等于batch_size的时候,
# 把这些数据当作一个mini-batch,并作为数据生成器的一个输出
imgs_array = np.array(batch_imgs).astype('float32')
labels_array = np.array(batch_labels).reshape(-1, 1) yield imgs_array, labels_array
batch_imgs = []
batch_labels = [] if len(batch_imgs) > 0: # 剩余样本数目不足一个batch_size的数据,一起打包成一个mini-batch
imgs_array = np.array(batch_imgs).astype('float32')
labels_array = np.array(batch_labels).reshape(-1, 1) yield imgs_array, labels_array return reader# 查看数据形状DATADIR = 'train'train_loader = data_loader(DATADIR,batch_size=20, mode='train')
data_reader = train_loader()
data = next(data_reader) #返回迭代器的下一个项目给data# 输出表示: 图像数据(batchsize,通道数,224*224)标签(batchsize,标签维度)print("train mode's shape:")print("data[0].shape = %s, data[1].shape = %s" %(data[0].shape, data[1].shape))
eval_loader = data_loader(DATADIR,batch_size=20, mode='eval')
data_reader = eval_loader()
data = next(data_reader)# 输出表示: 图像数据(batchsize,通道数,224*224)标签(batchsize,标签维度)print("eval mode's shape:")print("data[0].shape = %s, data[1].shape = %s" %(data[0].shape, data[1].shape))本案例中我们使用VGG网络进行表情识别,首先我们来了解一下VGG模型。VGG是在AlexNet的基础上通过增加网络深度达到提高模型性能的目的,在2014年ImageNet竞赛中获得分类第二(第一是GoogLeNet),定位任务第一。
原理介绍: 其实VGG网络模型的设计思想很清晰,主要为了探究网络深度对模型精确度的影响,所以VGG的设计模仿了AlexNet,只是增加了卷基层conv的数量和减小卷积核尺寸,全连接层FC保留了AlexNet的结构,相比于AlexNet,VGG网络有如下优点:
1.卷积层的数量更多,提高模型的准确度
2.采用了较小的卷积核,减少模型的参数,VGG结构中只采用了3x3和1x1的卷积核
# -*- coding:utf-8 -*-# VGG模型代码import numpy as npimport paddle# from paddle.nn import Conv2D, MaxPool2D, BatchNorm, Linearfrom paddle.nn import Conv2D, MaxPool2D, BatchNorm2D, Linear# 定义vgg网络class VGG(paddle.nn.Layer):
def __init__(self, num_class):
super(VGG, self).__init__()
in_channels = [3, 64, 128, 256, 512, 512] # 定义第一个卷积块,包含两个卷积 输入通道数是图片通道数即3 输出通道数即out_channels=in_channels[1]=64
self.conv1_1 = Conv2D(in_channels=in_channels[0], out_channels=in_channels[1], kernel_size=3, padding=1, stride=1)
self.conv1_2 = Conv2D(in_channels=in_channels[1], out_channels=in_channels[1], kernel_size=3, padding=1, stride=1) # 定义第二个卷积块,包含两个卷积 输入通道数是上一个卷积块的输出通道数即64 输出通道数即out_channels=in_channels[2]=128
self.conv2_1 = Conv2D(in_channels=in_channels[1], out_channels=in_channels[2], kernel_size=3, padding=1, stride=1)
self.conv2_2 = Conv2D(in_channels=in_channels[2], out_channels=in_channels[2], kernel_size=3, padding=1, stride=1) # 定义第三个卷积块,包含三个卷积 输入通道数是上一个卷积块的输出通道数即128 输出通道数即out_channels=in_channels[3]=256
self.conv3_1 = Conv2D(in_channels=in_channels[2], out_channels=in_channels[3], kernel_size=3, padding=1, stride=1)
self.conv3_2 = Conv2D(in_channels=in_channels[3], out_channels=in_channels[3], kernel_size=3, padding=1, stride=1)
self.conv3_3 = Conv2D(in_channels=in_channels[3], out_channels=in_channels[3], kernel_size=3, padding=1, stride=1) # 定义第四个卷积块,包含三个卷积 输入通道数是上一个卷积块的输出通道数即256 输出通道数即out_channels=in_channels[4]=512
self.conv4_1 = Conv2D(in_channels=in_channels[3], out_channels=in_channels[4], kernel_size=3, padding=1, stride=1)
self.conv4_2 = Conv2D(in_channels=in_channels[4], out_channels=in_channels[4], kernel_size=3, padding=1, stride=1)
self.conv4_3 = Conv2D(in_channels=in_channels[4], out_channels=in_channels[4], kernel_size=3, padding=1, stride=1) # 定义第五个卷积块,包含三个卷积 输入通道数是上一个卷积块的输出通道数即512 输出通道数即out_channels=in_channels[5]=512
self.conv5_1 = Conv2D(in_channels=in_channels[4], out_channels=in_channels[5], kernel_size=3, padding=1, stride=1)
self.conv5_2 = Conv2D(in_channels=in_channels[5], out_channels=in_channels[5], kernel_size=3, padding=1, stride=1)
self.conv5_3 = Conv2D(in_channels=in_channels[5], out_channels=in_channels[5], kernel_size=3, padding=1, stride=1) # VGG网络的设计严格使用3*3的卷积层和池化层来提取特征,并在网络的最后面使用三层全连接层,将最后一层全连接层的输出作为分类的预测。
# 使用Sequential 将全连接层和relu组成一个线性结构(fc + relu)
# 当输入为224x224时,经过五个卷积块和池化层后,特征维度变为[512x7x7]
self.fc1 = paddle.nn.Sequential(paddle.nn.Linear(512 * 7 * 7, 4096), paddle.nn.ReLU())
self.drop1_ratio = 0.5
self.dropout1 = paddle.nn.Dropout(self.drop1_ratio, mode='upscale_in_train') # 使用Sequential 将全连接层和relu组成一个线性结构(fc + relu)
self.fc2 = paddle.nn.Sequential(paddle.nn.Linear(4096, 4096), paddle.nn.ReLU())
self.drop2_ratio = 0.5
self.dropout2 = paddle.nn.Dropout(self.drop2_ratio, mode='upscale_in_train') #全连接层的输出
# paddle.nn.Linear(in_features, out_features, weight_attr=None, bias_attr=None, name=None)
# out_features 由输出标签的个数决定 本案例识别的7种表情,对应了3种标签。 因此 out_features = 3
self.fc3 = paddle.nn.Linear(4096, 1000)
self.fc4 = paddle.nn.Linear(1000,num_class)
self.relu = paddle.nn.ReLU()
self.pool = MaxPool2D(stride=2, kernel_size=2) def forward(self, x):
#激活函数用relu
x = self.relu(self.conv1_1(x))
x = self.relu(self.conv1_2(x))
x = self.pool(x)
x = self.relu(self.conv2_1(x))
x = self.relu(self.conv2_2(x))
x = self.pool(x)
x = self.relu(self.conv3_1(x))
x = self.relu(self.conv3_2(x))
x = self.relu(self.conv3_3(x))
x = self.pool(x)
x = self.relu(self.conv4_1(x))
x = self.relu(self.conv4_2(x))
x = self.relu(self.conv4_3(x))
x = self.pool(x)
x = self.relu(self.conv5_1(x))
x = self.relu(self.conv5_2(x))
x = self.relu(self.conv5_3(x))
x = self.pool(x)
x = paddle.flatten(x, 1, -1) #添加dropout抑制过拟合
x = self.dropout1(self.relu(self.fc1(x)))
x = self.dropout2(self.relu(self.fc2(x)))
x = self.fc3(x)
x = self.fc4(x) return xloss_fct = paddle.nn.CrossEntropyLoss() #结合了LogSoftmax和NLLLoss的OP计算,可用于训练一个n类分类器。
EPOCH_NUM = 100 #训练进行100次迭代
learning_rate (float|_LRScheduler, 可选) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001
momentum (float, 可选) - 动量因子。
parameters (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。
use_nesterov (bool, 可选) - 赋能牛顿动量,默认值False。
weight_decay (float|Tensor, 可选) - 权重衰减系数,是一个float类型或者shape为[1] ,数据类型为float32的Tensor类型。默认值为0.01
grad_clip (GradientClipBase, 可选) – 梯度裁剪的策略,支持三种裁剪策略: paddle.nn.ClipGradByGlobalNorm 、 paddle.nn.ClipGradByNorm 、 paddle.nn.ClipGradByValue 。 默认值为None,此时将不进行梯度裁剪。
name (str, 可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 Name ,默认值为None
model = VGG(num_class=7) opt = paddle.optimizer.Momentum(learning_rate=0.001, momentum=0.9, parameters=model.parameters()) #learning_rate为学习率,用于参数更新的计算。momentum为动量因子。
import paddleimport osimport randomimport numpy as np
DATADIR = 'train'DATADIR2 = 'val'DATADIR3 = 'test'def train_pm(model, optimizer, loss_fct, EPOCH_NUM, model_name='vgg'): #optimizer表示优化器 loss_fict 为损失函数 EPOCH_NUM为迭代次数,model_name为调用的模型名称
# 开启0号GPU训练
use_gpu = True
paddle.set_device('gpu:0') if use_gpu else paddle.set_device('cpu') print('start training ... ')
model.train() # 定义数据读取器,训练数据读取器和验证数据读取器
train_loader = data_loader(DATADIR, batch_size=20, mode='train') for epoch in range(EPOCH_NUM): for batch_id, data in enumerate(train_loader()):
x_data, y_data = data
#将图片和标签都转化为tensor型
img = paddle.to_tensor(x_data)
label = paddle.to_tensor(y_data) # 运行模型前向计算,得到预测值
logits = model(img) #计算输入input和标签label间的交叉熵损失
avg_loss = loss_fct(logits, label)
if batch_id % 200 == 0: print("epoch: {}, batch_id: {}, loss is: {:.4f}".format(epoch, batch_id, float(avg_loss.numpy())))
# 反向传播,更新权重,清除梯度
avg_loss.backward()
optimizer.step()
optimizer.clear_grad() #保存模型
paddle.save(model.state_dict(), model_name + '.pdparams')
paddle.save(optimizer.state_dict(), model_name + '.pdopt')# 启动训练过程train_pm(model, opt,loss_fct,EPOCH_NUM, model_name='vgg')
import paddle@paddle.no_grad()#定义评估函数def evaluation(model, loss_fct):
print('start evaluation .......')
model.eval()
eval_loader = data_loader(DATADIR3,
batch_size=20, mode='eval')
acc_set = []
avg_loss_set = [] for batch_id, data in enumerate(eval_loader()):
x_data, y_data = data #将图片和标签都转化为tensor型
img = paddle.to_tensor(x_data)
label = paddle.to_tensor(y_data)
# 计算预测和精度
logits = model(img)
acc = paddle.metric.accuracy(logits, label)
avg_loss = loss_fct(logits, label)
acc_set.append(float(acc.numpy()))
avg_loss_set.append(float(avg_loss.numpy())) # 求平均精度
acc_val_mean = np.array(acc_set).mean()
avg_loss_val_mean = np.array(avg_loss_set).mean()
model.train() print('loss={:.4f}, acc={:.4f}'.format(avg_loss_val_mean, acc_val_mean))#开启0号GPU预估use_gpu = Truepaddle.set_device('gpu:0') if use_gpu else paddle.set_device('cpu')#加载模型参数params_file_path = './work/PaddleDetection/models/vgg.pdparams'model_state_dict = paddle.load(params_file_path)
model.load_dict(model_state_dict)#调用验证evaluation(model, loss_fct)import cv2import matplotlib.pyplot as plt
%matplotlib inlinefrom PIL import Imagedef load_image(img):
# 将图片尺寸缩放道 224x224
img = cv2.resize(img, (224, 224)) # 读入的图像数据格式是[H, W, C]
# 使用转置操作将其变成[C, H, W]
img = np.transpose(img, (2, 0, 1))
img = img.astype('float32') # 将数据范围调整到[-1.0, 1.0]之间
img = img / 255.
img = img * 2.0 - 1.0
return img
model = VGG(num_class=7)
params_file_path = './work/PaddleDetection/models/vgg.pdparams'#选取test文件夹里一张表情图片 H开头表示happyimg_path = 'test/SA00022.jpg'img = cv2.imread(img_path)
plt.imshow(img)
plt.axis('off')
plt.show()
param_dict = paddle.load(params_file_path)
model.load_dict(param_dict)# 灌入数据model.eval()
tensor_img = load_image(img)
tensor_img = np.expand_dims(tensor_img, 0)
results = model(paddle.to_tensor(tensor_img))# 取概率最大的标签作为预测输出lab = np.argsort(results.numpy())print("这次预测图片名称是:%s" %(img_path[5:]))# 7类表情 'sad', 'disgust', 'happy', 'fear', 'surprise', 'neutral', 'angry'if img_path[5:7] == 'NE':
true_lab = 'NEUTRAL' elif img_path[5:7] == 'HA':
true_lab = 'HAPPY'elif img_path[5:7] == 'SU':
true_lab = 'SURPRISE'elif img_path[5:7] == 'SA':
true_lab = 'SAD'elif img_path[5:7] == 'FE':
true_lab = 'FEAR'elif img_path[5:7] == 'AN':
true_lab = 'ANGRY'elif img_path[5:7] == 'DI':
true_lab = 'DISGUST'else: raise('Not excepted file name')print("这次图片属于%s表情" %(true_lab))
tap = lab[0][-1]print("这次预测结果是:")if tap == 0: print('SAD')elif tap == 1: print('DISGUST')elif tap == 2: print('HAPPY')elif tap == 3: print('FEAR')elif tap == 4: print('SURPRISE')elif tap == 5: print('NEUTRAL')elif tap == 6: print('ANGRY')else: raise('Not excepted file name')PaddleDetection目标检测库中,除了包含10余种主流目标检测算法外,还包含了人脸检测任务的blazeface和faceboxes模型,以及这两个模型的轻量级模型探索,相关配置文件位于configs/face_detection目录下,套件中的face_detection模块提供了高效、高速的人脸检测解决方案,包括最先进的模型和经典模型。 在这里我们采用blazeface_fpn_ssh_1000e的模型 此模块可直接调用以进行人脸识别,具体步骤为:
1.获取并安装PaddleDetection套件
2.从官方链接点击此处获取中下载已训练好的模型,并获取WIDER-FACE数据集用于评估
3.完成模型评估并进行人脸识别
%cd work !unzip -oq /home/aistudio/data/data150481/PaddleDetection.zip
/home/aistudio/work
%cd PaddleDetection !pip install -r requirements.txt %env PYTHONPATH=.:$PYTHONPATH %env CUDA_VISIBLE_DEVICES=0!python setup.py install
! python tools/infer.py -c configs/face_detection/blazeface_fpn_ssh_1000e.yml --infer_img=input/simle.jpg -o weights=models/blazeface_fpn_ssh_1000e.pdparams
%matplotlib inlineimport matplotlib.pyplot as plt
import cv2
infer_img = cv2.imread("output/simle.jpg")
plt.figure(figsize=(15, 10))
plt.imshow(cv2.cvtColor(infer_img, cv2.COLOR_BGR2RGB))
plt.show()
不同的神经网络具有不同的结构,深度和参数。针对于本次分类任务,VGG网络不一定是最合适的神经网络,为达到更高的精度,我们可以尝试更换其它神经网络来进行训练。
Kaiming He等人在2015年提出了ResNet,通过引入残差模块加深网络层数,在ImagNet数据集上的错误率降低到3.6%,超越了人眼识别水平。ResNet的设计思想深刻地影响了后来的深度神经网络的设计。
下图表示出了ResNet的结构:
model = paddle.vision.models.resnet34(pretrained=True, num_classes = 7) #pretrained:表示是否加载在imagenet数据集上的预训练权重 num_classes由数据集的标签数决定lr = paddle.optimizer.lr.ReduceOnPlateau(learning_rate=0.0001, factor=0.5, patience=2, verbose=True) opt = paddle.optimizer.Momentum(learning_rate=lr, momentum=0.9, parameters=model.parameters(), weight_decay=0.001) #选择momentum优化器# 启动训练过程train_pm(model, opt,loss_fct,EPOCH_NUM=30, model_name='resnet34')
use_gpu = Truepaddle.set_device('gpu:0') if use_gpu else paddle.set_device('cpu')
model = paddle.vision.models.resnet34(pretrained=True,num_classes = 7)
params_file_path = './resnet34.pdparams'model_state_dict = paddle.load(params_file_path)
model.load_dict(model_state_dict)#调用验证evaluation(model, loss_fct)在深度学习神经网络模型中,通常使用标准的随机梯度下降算法更新参数,学习率代表参数更新幅度的大小,即步长。当学习率最优时,模型的有效容量最大,最终能达到的效果最好。学习率和深度学习任务类型有关,合适的学习率往往需要大量的实验和调参经验。探索学习率最优值时需要注意如下两点:
上图为不同学习率(步长过大/过小)的示意图
以上就是基于PaddleDetection的情绪识别的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号