python gpu
时间: 2024-12-28 07:27:37 浏览: 5
### 如何在Python中使用GPU进行加速计算
对于希望利用硬件加速器来提升AI应用性能的开发者来说,TensorFlow是一个流行的选择[^1]。为了实现这一点,在安装了支持GPU版本的TensorFlow之后,只需确保环境配置正确即可自动启用GPU加速。
然而,如果想要强制程序运行于CPU上而不是GPU,可以通过设置`os.environ["CUDA_VISIBLE_DEVICES"]="-1"`来达成这一目的[^2]。此方法通过隐藏所有的GPU设备使得代码仅能在CPU上执行。
当涉及到具体的应用开发时,下面给出了一段简单的例子用于展示如何创建并训练一个基于MNIST数据集的手写数字识别模型:
```python
import tensorflow as tf
from tensorflow.keras.datasets import mnist
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Dropout, Flatten
from tensorflow.keras.layers import Conv2D, MaxPooling2D
batch_size = 128
num_classes = 10
epochs = 12
# 输入图像尺寸
img_rows, img_cols = 28, 28
# 加载数据
(x_train, y_train), (x_test, y_test) = mnist.load_data()
if tf.test.is_gpu_available():
print('Using GPU')
else:
print('No GPU available')
model = Sequential()
model.add(Conv2D(32, kernel_size=(3, 3),
activation='relu',
input_shape=input_shape))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(128, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(num_classes, activation='softmax'))
model.compile(loss=tf.keras.losses.sparse_categorical_crossentropy,
optimizer=tf.keras.optimizers.Adadelta(),
metrics=['accuracy'])
model.fit(x_train, y_train,
batch_size=batch_size,
epochs=epochs,
verbose=1,
validation_data=(x_test, y_test))
score = model.evaluate(x_test, y_test, verbose=0)
print('Test loss:', score[0])
print('Test accuracy:', score[1])
```
这段代码展示了怎样构建卷积神经网络(CNN),并通过调用`tf.test.is_gpu_available()`函数检查当前环境中是否存在可用的GPU资源。如果有,则会打印消息表示正在使用GPU;反之则提示无GPU可供使用。
值得注意的是,除了上述提到的方法外,还有其他框架如PyTorch也提供了类似的接口让使用者能够轻松地切换到GPU模式下工作。此外,Graphcore公司的IPU技术也为机器学习带来了新的可能性,它不仅支持多种浮点精度运算而且还特别针对某些特定类型的计算进行了优化[^3]。
阅读全文