001 检测CUDA、cuDNN、Pytorch是否可用

2022-10-01 08:25:28

费劲千辛万苦安装好CUDA、cuDNN、Pytorch后

怎么检测自己的Pytorch深度学习环境是否可用呢?

这就来跟着默子一起看一看吧!


复制下列代码到IDE中运行

import torchprint('CUDA版本:',torch.version.cuda)print('Pytorch版本:',torch.__version__)print('显卡是否可用:','可用'if(torch.cuda.is_available())else'不可用')print('显卡数量:',torch.cuda.device_count())print('是否支持BF16数字格式:','支持'if(torch.cuda.is_bf16_supported())else'不支持')print('当前显卡型号:',torch.cuda.get_device_name())print('当前显卡的CUDA算力:',torch.cuda.get_device_capability())

如果可以正常使用,大概率是这样的

CUDA版本: 11.3
Pytorch版本: 1.13.0.dev20220529+cu113
显卡是否可用: 可用
显卡数量: 1
是否支持BF16数字格式: 不支持
当前显卡型号: NVIDIA GeForce GTX 960M
当前显卡的CUDA算力: (5, 0)

代码逐行剖析:

  1. torch.version.cuda

    会输出当前CUDA的版本,一般来说,会有11.310.2 (更老的版本可能不太好用,建议更新)


  1. torch.__version__ .

    会输出当前 Pytorch 的版本,
    对于1.13.0.dev20220529+cu113

    1.13.0 表示当前Pytorch的大版本
    dev20220529 表示是开发构建版(Pytorch.Nightly),具体构建日期为2022.5.29日,没有的话则是稳定版(Pytorch.Stable)。
    cu113 表示当前 Pytorch 是GPU的,CUDA版本是11.3,如果是cp39 表示当前 Pytorch 是CPU版本,Python版本是3.9.X


  2. torch.cuda.is_available()

    返回GPU是否可用,可用为True,不可用为False


  1. torch.cuda.device_count()

    返回显卡数量,大家的电脑一般都是1 啦,哈哈哈哈


  1. torch.cuda.is_bf16_supported()

    显卡是否支持BF16计算,支持为True,不支持为False

    BF16,有时也被称为BFloat16或Brain Float16,是一种针对人工智能与深度学习应用程序进行优化的新数字格式。 它在谷歌、 英特尔 、 Arm 和许多其他公司的人工智能加速器得到了广泛的应用。使用BF16主要是因为,神经网络对指数的大小比尾数敏感得多,所以不必使用传统尾数精度更高的FP64或者是FP32。 默子的960M是肯定不支持BF16的,目前支持BF16的显卡有很多,比较大众化的应该就是NVIDIA老黄NVIDIA创始人兼首席执行官的 RTX3060 和 RTX3070 了。至于专业的深度学习卡,绝大部分都是支持的。


  1. torch.cuda.get_device_capability()

    获取GPU的算力(CUDA Capability Major/Minor version number) ,对于N卡来说,查看全部型号显卡的算力请访问https://developer.nvidia.com/cuda-gpus#compute (其余显卡请读者自行搜索吧)

    在官方给出的文档中,如果进行神经网络的训练,建议GPU此数值在 5.0 以上(默子的卡刚刚及格,呜呜呜)


个人站点【深度学习】001 检测CUDA、cuDNN、Pytorch是否可用

  • 作者:默子要早睡.Histone
  • 原文链接:https://histone.blog.csdn.net/article/details/125065627
    更新时间:2022-10-01 08:25:28