參考官網安裝教學。
該如何選擇 Compute Platform
nvidia-smi
) 是用來管理和監控 Nvidia-smi GPU 設備的命令列工具。在終端機輸入 nvidia-smi
指令,右上角輸出的 CUDA Version 是 11.4
,這個數字代表最高能支援的 CUDA 版本。詳細 CUDA 資訊可參考此處。❯ nvidia-smi
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 470.141.03 Driver Version: 470.141.03 CUDA Version: 11.4 |
|-------------------------------+----------------------+----------------------+
因此若在 Pytorch 版本有 CUDA 10.2, 11.3, 11.6 三個版本可使用,則 CUDA 10.2, 11.3 是可使用的,CUDA 11.6 不可使用。
使用二進制方法安裝 Pytorch 時,將附帶 CUDA Toolkit 與 cuDNN 的函式庫在該框架內,不會與環境變數中的套件衝突,因此若沒有要使用 Tensorflow,就不用再額外安裝。
import torch
import sys
# 檢查 Pytorch 的 CUDA 是否可用
print(torch.cuda.is_available())
# ==========================
print('__Python VERSION:', sys.version)
print('__pyTorch VERSION:', torch.__version__)
print('__CUDA VERSION:', torch.version.cuda) # CUDA 版本
print('__CUDNN VERSION:', torch.backends.cudnn.version())
print('__Number CUDA Devices:', torch.cuda.device_count()) # GPU 數量
print('Active CUDA Device: GPU', torch.cuda.current_device()) # 當前 GPU 索引
print(torch.cuda.get_device_name(0)) # GPU 設備名稱
# GPU 設備運算能力見 Nvidia 官網 <https://developer.nvidia.com/cuda-gpus>
print(torch.cuda.get_device_capability(0))
print(torch.cuda.get_device_properties(0)) # GPU 設備屬性
> ls /usr/local/ -lah
lrwxrwxrwx 1 root root 20 三 7 15:09 cuda -> /usr/local/cuda-10.2
drwxr-xr-x 4 root root 4.0K 三 7 14:45 cuda-10.2
drwxr-xr-x 17 root root 4.0K 二 14 18:08 cuda-11.8
drwxr-xr-x 17 root root 4.0K 二 14 16:46 cuda-12.0
> sudo ln -sfT /usr/local/cuda-11.8 /usr/local/cuda
> ls /usr/local/ -lah
lrwxrwxrwx 1 root root 20 三 7 15:09 cuda -> /usr/local/cuda-11.8
drwxr-xr-x 4 root root 4.0K 三 7 14:45 cuda-10.2
drwxr-xr-x 17 root root 4.0K 二 14 18:08 cuda-11.8
drwxr-xr-x 17 root root 4.0K 二 14 16:46 cuda-12.0