安装的torch-2.5.1+cu124-cp311-cp311-win_amd64.whl 应该是cu版本,怎么查看时显示还是cp版本

今天在安装wan2.1通义万相。
在安装flash_attn库报错遇 ImportError: DLL load failed while importing flash_attn_2_cuda: 找不到指定的模块。用 Dependency Walker 查看依赖缺少C10.DLL、C10_CUDA.DLL、TORCH_CPU.DLL、TORCH_PYTHON.DLL和CUDART64_12.DLL这几个文件,用DeepSeek查看发现用如下方法查看解决

验证 PyTorch 是否识别 CUDA:

import torch
print(torch.__version__)          # 查看 PyTorch 版本
print(torch.cuda.is_available())  # 应输出 `True`
print(torch.version.cuda)         # 应显示 CUDA 12.x(如 12.1)

竟然torch.cuda.is_available() 为false。

DeepSeek给出的分析

可能的误区是用户认为wheel文件名中的cu和cp决定了安装后的版本,但实际上wheel文件名的这些标签只是指示该包适用的环境,安装后的实际CUDA版本由PyTorch构建时使用的CUDA版本决定,而Python版本则由当前运行的Python解释器决定。

posted @ 2025-03-02 08:36  焦涛  阅读(290)  评论(0)    收藏  举报