
本教程旨在解决使用LSTM进行时间序列预测时常见的“数据基数模糊”错误,并提供一套完整的解决方案。文章详细阐述了如何正确准备序列数据,将其转换为LSTM模型所需的输入格式,并指导读者构建一个适用于回归任务的LSTM模型,包括选择合适的激活函数和损失函数,最终实现准确的时间序列预测。
长短期记忆网络(LSTM)是循环神经网络(RNN)的一种变体,特别擅长处理和预测时间序列数据。在进行时间序列预测时,我们通常希望模型能够根据历史序列数据预测未来的一个或多个值。一个常见的场景是,给定前 N 个时间步的数据,预测第 N+1 个时间步的值。
然而,初学者在使用Keras构建LSTM模型时,常会遇到 ValueError: Data cardinality is ambiguous 这样的错误。这通常是由于输入 X 和输出 Y 的样本数量不匹配,或者输入数据的形状不符合LSTM层的要求所致。此外,输出层的激活函数选择不当也是一个常见问题。
要训练一个LSTM模型,我们需要将原始时间序列数据转换为监督学习问题所需的输入-输出对。假设我们有一个一维时间序列 [1, 2, 3, 4, 5, 6, 7],并且我们知道每个样本与其前两个样本之间存在关系(例如,1, 2 预测 3;2, 3 预测 4)。这意味着我们的“序列长度”或“回溯步长”是 2。
我们需要创建一个数据生成器,将原始序列转换为以下形式:
以下是一个实现此逻辑的Python函数:
import numpy as np
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers
# 原始时间序列数据
data = np.array([1, 2, 3, 4, 5, 6, 7])
sequences_length = 2 # 定义回溯步长
def create_sequences(data, sequences_length):
"""
将一维时间序列数据转换为LSTM模型所需的输入-输出对。
参数:
data (np.array): 原始一维时间序列数据。
sequences_length (int): 每个输入序列的长度(回溯步长)。
返回:
tuple: (X, Y),其中X是输入序列数组,Y是对应的目标值数组。
"""
X, Y = [], []
for i in range(len(data) - sequences_length):
# 提取输入序列
X.append(data[i : i + sequences_length])
# 提取目标值
Y.append(data[i + sequences_length])
return np.array(X), np.array(Y)
# 生成训练数据
X_raw, Y = create_sequences(data, sequences_length)
# 打印生成的样本以进行检查
print("原始X样本:")
for i in range(X_raw.shape[0]):
print(f"X[{i}]: {X_raw[i]}, Y[{i}]: {Y[i]}")
# 原始X样本:
# X[0]: [1 2], Y[0]: 3
# X[1]: [2 3], Y[1]: 4
# X[2]: [3 4], Y[2]: 5
# X[3]: [4 5], Y[3]: 6
# X[4]: [5 6], Y[4]: 7从上述输出可以看出,我们成功从7个原始数据点中生成了5个监督学习样本。现在,X_raw 的形状是 (5, 2),Y 的形状是 (5,)。这解决了 Data cardinality is ambiguous 的问题,因为 X 和 Y 现在都有相同的样本数量(5个)。
LSTM层期望的输入形状是 (samples, timesteps, features):
因此,我们需要将 X_raw 从 (5, 2) 重塑为 (5, 2, 1)。
# 重塑X以符合LSTM输入要求
X = np.reshape(X_raw, (X_raw.shape[0], sequences_length, 1))
print(f"\n重塑后的X形状: {X.shape}")
print(f"Y的形状: {Y.shape}")现在,X 的形状是 (5, 2, 1),Y 的形状是 (5,)。
在构建LSTM模型时,除了输入形状,还需要注意输出层的选择。由于我们正在进行数值预测(回归任务),输出层应该是一个 Dense 层,且不应使用 softmax 激活函数。softmax 适用于多类别分类问题,而对于回归问题,我们通常使用线性激活(即不指定激活函数,Keras默认是线性)。
# 构建LSTM模型
model = keras.Sequential([
# LSTM层,input_shape=(timesteps, features)
layers.LSTM(64, input_shape=(sequences_length, 1)),
# 全连接输出层,用于回归任务,不使用激活函数(默认为线性)
layers.Dense(1)
])
# 编译模型
# 优化器选择 'adam'
# 损失函数选择 'mse' (均方误差) 适用于回归任务
model.compile(optimizer="adam", loss="mse")
model.summary()注意事项:
使用准备好的 X 和 Y 数据对模型进行训练。为了更好地学习数据中的模式,通常需要多个 epochs。
# 训练模型
print("\n开始训练模型...")
model.fit(X, Y, epochs=1000, batch_size=1, verbose=0) # verbose=0 关闭训练进度输出
print("模型训练完成。")训练完成后,我们可以使用模型对新的序列数据进行预测。重要的是,用于预测的输入数据也必须按照与训练数据相同的格式进行准备和重塑。
假设我们想预测 [8, 9] 之后的下一个值。
# 准备用于预测的新数据
inference_data_raw = np.array([[8, 9]]) # 注意这里是二维数组
inference_data = np.reshape(inference_data_raw, (1, sequences_length, 1))
# 进行预测
print(f"\n预测 {inference_data_raw.reshape(-1)} 之后的下一个值...")
prediction = model.predict(inference_data)
print(f"预测结果: {prediction[0][0]:.4f}")
# 期望结果接近 10本教程展示了如何正确地为LSTM时间序列预测任务准备数据和构建模型。核心要点包括:
遵循这些最佳实践,可以有效避免常见的错误,并成功构建和训练用于时间序列预测的LSTM模型。
以上就是深入理解LSTM时间序列预测:数据准备与模型构建最佳实践的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号