暂时发现——随机种子的设置只能保证同一个机器的同一款显卡每次结果完全一致
代码设置
print('Using random seed : ', seed)
random.seed(seed)
np.random.seed(seed)
torch.manual_seed(seed)
torch.cuda.manual_seed_all(seed) # set random seed for all gpus
if torch.cuda.is_available():
torch.cuda.manual_seed(seed) # 设置 CUDA 随机数种子
torch.cuda.manual_seed_all(seed) # 设置所有 GPU 的随机数种子
torch.backends.cudnn.deterministic = True # 确保每次运行的计算结果一致
torch.backends.cudnn.benchmark = False # 禁用动态优化
这个设置后,可以保证在同一台服务器每次跑出来的结果一致,但不同服务器的结果不完全一致,不知道为什么?
服务器1:3张4090显卡,无论拿哪张都结果都一样
服务器2:4张3090显卡,无论拿哪张都结果都一样
但服务器1的结果和服务器2的结果不完全一样
GPT给的回答是:
在你的设置中,尽管已经设定了随机种子和 CUDA 相关配置以确保运行结果一致,但仍然可能导致不同服务器之间结果不完全一致的原因包括以下几点:
1. GPU硬件架构差异
- 原因:4090 和 3090 的 GPU 架构不同(4090 基于 Ada Lovelace,3090 基于 Ampere),即使代码和随机种子设置相同,某些底层的数值计算(如浮点运算)可能会因为硬件实现的微小差异导致不同的结果。这种情况在深度学习中是常见的,尤其当涉及浮点数精度或并行计算时。
- 解决方法:
- 尽量使用相同架构的 GPU,或者接受微小数值差异。
2. PyTorch 和依赖库版本差异
- 原因:不同服务器可能使用了不同版本的 PyTorch、CUDA 或 CuDNN。这些版本的实现可能会对某些操作(如卷积、随机数生成)使用不同的算法,进而导致结果不同。
- 解决方法:
- 确保服务器上使用完全相同版本的 PyTorch、CUDA 和 CuDNN。
- 使用
torch.version和torch.backends.cudnn.version()检查版本一致性。
3. 不同的随机数生成器
- 原因:即使你设置了相同的随机种子,底层实现的随机数生成器可能会因硬件或软件环境不同而有所不同。
- 解决方法:
- 检查
torch.backends.cudnn的相关配置是否完全一致。 - 尝试使用更加严格的随机数生成器,比如
numpy或torch的自定义实现。
- 检查
4. 环境变量和线程数设置
- 原因:线程数和环境变量(如 OpenMP、MKL)对计算过程也有影响,可能导致不同服务器的结果不一致。
- 解决方法:
- 设置环境变量:
export OMP_NUM_THREADS=1 export MKL_NUM_THREADS=1 - 在代码中明确限制线程数:
torch.set_num_threads(1)
- 设置环境变量:
5. 硬件随机性
- 原因:某些硬件级别的操作可能会引入非确定性行为,例如 GPU 的浮点计算并行化。
- 解决方法:
- 将模型转移到 CPU 上运行(如果可能),以避免 GPU 的浮点并行计算影响。
- 但注意,这会显著降低运行速度,且可能无法解决架构间差异的问题。
总结建议:
- 确保所有软件依赖(PyTorch、CUDA、CuDNN)的版本一致。
- 检查环境变量和线程数设置是否相同。
- 如果对结果一致性要求极高,尝试只使用 CPU(成本较高,不推荐)。
- 确认结果差异是否在接受范围内,很多情况下,微小的数值差异并不影响模型的整体效果。
这些步骤应该可以帮助你减少服务器间的不一致性。如果仍有问题,建议逐步检查硬件和软件环境的细节。
本文来自博客园,作者:JaxonYe,转载请注明原文链接:https://www.cnblogs.com/yechangxin/articles/18595379
侵权必究

浙公网安备 33010602011771号