ubuntu22.04怎么用GPU运行
如何在 Ubuntu 22.04 上设置并使用 GPU 进行加速计算
确认硬件兼容性和驱动程序版本
为了确保系统的稳定性和性能优化,确认当前使用的 NVIDIA 显卡型号以及对应的驱动版本至关重要。通过命令 sudo ubuntu-drivers list --gpgpu
可以获取适用于特定 GPU 的推荐驱动列表[^1]。
安装必要的依赖项
在准备安装 GPU 驱动之前,建议先更新系统软件源,并安装一些基础工具来辅助后续操作:
sudo apt update && sudo apt upgrade -y
sudo apt install build-essential dkms linux-headers-generic -y
安装 NVIDIA 驱动
对于希望快速完成配置的用户来说,可以利用官方仓库中的预编译二进制文件来进行安装。执行如下指令即可自动下载匹配的操作系统内核版本的驱动包并完成部署:
sudo add-apt-repository ppa:graphics-drivers/ppa
sudo apt-get update
sudo apt-get install nvidia-driver-<version_number>
这里的 <version_number>
应替换为实际查询得到的主要版本号,比如上述提到的例子中就是 "535"。
验证驱动安装成功与否
重启计算机之后,可以通过终端输入 nvidia-smi
来验证是否正确加载了新的图形处理单元驱动。如果一切正常,则会显示出有关设备状态的信息;反之则可能提示错误消息,如遇到 “Driver/library version mismatch.” 错误时需注意检查CUDA Toolkit 和 cuDNN SDK 是否与现有驱动相适配[^4]。
设置 TensorFlow 或 PyTorch 使用 GPU 加速
一旦完成了前面几步的基础工作,就可以着手于机器学习框架的具体应用上了。以下是两个常见的深度学习库——TensorFlow 和 PyTorch ——关于启用其GPU功能的方法简介:
对于 TensorFlow 用户而言,
应当按照官方文档指引选择合适的发行版形式(pip wheel 文件),并且保证 Python 解释器环境中已预先设置了 pip 工具链。接着依照下面给出的方式引入 tensorflow-gpu 模块:
import tensorflow as tf
print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU')))
如果倾向于采用 PyTorch 方案的话,
除了遵循类似的环境搭建流程外,还需额外关注 torch 版本同 cuda/cudnn 组件间的协调关系。可通过以下方式测试 Torch 能否识别到可用的 GPU 设备:
import torch
if torch.cuda.is_available():
print(f'Using {torch.cuda.get_device_name()}')
else:
print('No available GPU found.')
相关推荐

















