如摘要所述,问题在于使用 TensorFlow 的 tf.data.Dataset 构建数据集时,未分割的完整数据集在训练模型时会导致损失函数变为 NaN,而将数据集分割成训练集和测试集后,模型训练则正常进行。尽管两种数据集的预处理方式相同,但训练结果却截然不同。
根本原因很可能是数据尺度问题与梯度爆炸的结合。当神经网络的输入数据尺度过大,且模型中使用了如 ReLU 等激活函数时,容易导致梯度爆炸。具体来说:
解决此问题的关键在于对数据进行标准化处理,将数据缩放到一个合适的范围内,避免梯度爆炸。常用的标准化方法包括:
推荐使用 StandardScaler,因为它对异常值不敏感,且能够更好地保持数据的分布形状。
实现步骤:
代码示例:
import tensorflow as tf from sklearn.preprocessing import StandardScaler import numpy as np # 假设 full_dataset 已经加载,并且是 tf.data.Dataset 对象 # 1. 分割数据集 def is_test(x, _): return x % 10 == 0 # 假设 10% 作为测试集 def is_train(x, y): return not is_test(x, y) recover = lambda x, y: y # Split the dataset for training. test_set = full_dataset.enumerate().filter(is_test).map(recover) # Split the dataset for testing/validation. trainning_set = full_dataset.enumerate().filter(is_train).map(recover) # 2. 提取数据并转换为 NumPy 数组 def extract_data(dataset): input1_list = [] input2_list = [] target_list = [] for element in dataset: inputs, target = element input1_list.append(inputs['input1'].numpy()) input2_list.append(inputs['input2'].numpy()) target_list.append(target.numpy()) return np.concatenate(input1_list, axis=0), np.concatenate(input2_list, axis=0), np.array(target_list) input1_train, input2_train, target_train = extract_data(trainning_set) input1_test, input2_test, target_test = extract_data(test_set) # 3. 训练 StandardScaler 并转换数据 scaler_input1 = StandardScaler() scaler_input2 = StandardScaler() scaler_target = StandardScaler() input1_train_scaled = scaler_input1.fit_transform(input1_train.reshape(-1, input1_train.shape[-1])).reshape(input1_train.shape) input2_train_scaled = scaler_input2.fit_transform(input2_train) target_train_scaled = scaler_target.fit_transform(target_train.reshape(-1,1)) input1_test_scaled = scaler_input1.transform(input1_test.reshape(-1, input1_test.shape[-1])).reshape(input1_test.shape) input2_test_scaled = scaler_input2.transform(input2_test) target_test_scaled = scaler_target.transform(target_test.reshape(-1,1)) # 4. 创建新的 tf.data.Dataset 对象 def create_dataset(input1, input2, target): def generator(): for i in range(len(input1)): yield ({'input1': input1[i], 'input2': input2[i]}, target[i]) return tf.data.Dataset.from_generator( generator, output_signature=( {'input1': tf.TensorSpec(shape=input1.shape[1:], dtype=tf.float32), 'input2': tf.TensorSpec(shape=input2.shape[1:], dtype=tf.float32)}, tf.TensorSpec(shape=target.shape[1:], dtype=tf.float32) ) ) trainning_set_scaled = create_dataset(input1_train_scaled, input2_train_scaled, target_train_scaled) test_set_scaled = create_dataset(input1_test_scaled, input2_test_scaled, target_test_scaled) trainning_set_scaled = trainning_set_scaled.batch(batch_size).cache().prefetch(2) test_set_scaled = test_set_scaled.batch(batch_size).cache().prefetch(2) # 使用标准化后的数据训练模型 model.fit(trainning_set_scaled, validation_data=test_set_scaled)
注意事项:
当 TensorFlow 模型在完整数据集上训练时出现 NaN 值,而在分割后的数据集上训练正常时,很可能是由于数据尺度过大导致梯度爆炸。通过使用 StandardScaler 对数据进行标准化处理,可以有效地解决这个问题,确保模型训练的数值稳定性。记住,先分割数据集,再进行标准化,并使用相同的 StandardScaler 对象转换训练集和测试集数据。
以上就是TensorFlow模型训练:数据集分割与数值稳定性的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号