jupyter分配GPU
时间: 2024-12-29 14:21:15 浏览: 15
### 如何在 Jupyter Notebook 中配置和使用 GPU
#### 安装必要的软件包
为了使 PyTorch 和 TensorFlow 能够利用 GPU,在 Anaconda Prompt 或者命令行工具中安装 `ipykernel` 是必需的操作之一。这一步骤允许创建新的内核以便于不同环境之间的切换。
```bash
conda install ipykernel -n your_env_name
```
上述命令中的 `-n your_env_name` 需替换为实际的目标环境中名称[^2]。
#### 创建并激活目标环境
对于已经存在的特定 Python 环境(比如包含 PyTorch 的 GPU 版本),可以通过如下方式来启动它:
```bash
conda activate your_env_name
```
这里的 `your_env_name` 同样指代之前定义好的含有 GPU 支持库的 Conda 环境名[^1]。
#### 将新环境注册到 Jupyter Notebook
为了让 Jupyter 认识这个刚刚被激活的新环境,执行下面这条指令可以完成该操作:
```bash
python -m ipykernel install --user --name=your_env_name --display-name "Python (your_env_name)"
```
此过程会把当前活跃的 Conda 环境设置成一个新的可用选项,当开启 Jupyter Notebook 之后可以在界面上看到对应的 Kernel 名字。
#### 设置 CUDA 可见设备数量
有时可能希望限制可见给定应用程式的 GPU 数量或是指定某几个具体的 GPU 设备编号。通过设定环境变量 `CUDA_VISIBLE_DEVICES` 来实现这一点非常方便有效。例如只让第一个 GPU 对应用程序可见,则可在启动脚本里加入这一句:
```bash
export CUDA_VISIBLE_DEVICES="0"
```
对于 Windows 用户来说则是采用类似的语法形式但在批处理文件 (.bat) 中写入:
```batchfile
set CUDA_VISIBLE_DEVICES=0
```
这样做有助于管理多张显卡上的工作负载以及调试目的下的资源隔离[^3]。
#### 使用 PyTorch 进行简单的测试
一旦完成了以上准备工作,就可以编写一段简短的代码片段验证是否成功启用了 GPU 加速功能了。这里给出一个基于 PyTorch 的例子用于检测是否有可用的 NVIDIA 显卡连接至系统,并尝试将 Tensor 移动过去运算:
```python
import torch
if torch.cuda.is_available():
device = 'cuda'
else:
device = 'cpu'
tensor_example = torch.tensor([1., 2., 3.], device=device)
print(f'Device being used: {device}')
```
这段代码首先检查是否存在可访问的 CUDA 设备;如果有就将其设为目标计算平台 (`'cuda'`) ,否则 fallback 到 CPU 上继续运作。最后打印出正在使用的硬件信息作为确认依据。
阅读全文