写一篇TensorFlow实现手写数字识别的实验报告,需包括实验目的、使用仪器、实验原理、实验步骤、原始记录、数据处理
时间: 2023-07-10 14:09:24 浏览: 152
实验报告:TensorFlow实现手写数字识别
实验目的:
本实验旨在通过使用TensorFlow框架实现手写数字识别,加深对深度学习与人工智能的理解,了解TensorFlow框架的基本使用方法。
使用仪器:
计算机、Python编程环境、TensorFlow框架
实验原理:
手写数字识别是深度学习中的一个经典问题,本实验使用卷积神经网络(Convolutional Neural Network,CNN)实现手写数字识别。CNN是一种专门用于图像识别的神经网络,其输入是一张图片,输出是图片中的标签,CNN包含卷积层、池化层、全连接层等多个层次,通过不断调整权重和偏置,使得网络输出结果与真实标签更加接近,从而实现对手写数字的准确识别。
实验步骤:
1. 数据准备
本实验使用MNIST手写数字数据集,该数据集包含60000个训练样本和10000个测试样本。首先需要将数据集下载到本地,使用以下代码可以完成数据集的下载:
```python
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
```
2. 构建模型
本实验使用TensorFlow框架构建卷积神经网络模型。模型包含两个卷积层、两个池化层和两个全连接层,具体实现代码如下:
```python
import tensorflow as tf
# 输入层
x = tf.placeholder(tf.float32, [None, 784])
# 第1个卷积层,32个卷积核,大小为5x5,relu激活函数
x_image = tf.reshape(x, [-1, 28, 28, 1])
W_conv1 = tf.Variable(tf.truncated_normal([5, 5, 1, 32], stddev=0.1))
b_conv1 = tf.Variable(tf.constant(0.1, shape=[32]))
h_conv1 = tf.nn.relu(tf.nn.conv2d(x_image, W_conv1, strides=[1, 1, 1, 1], padding='SAME') + b_conv1)
# 第1个池化层,最大池化,大小为2x2
h_pool1 = tf.nn.max_pool(h_conv1, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')
# 第2个卷积层,64个卷积核,大小为5x5,relu激活函数
W_conv2 = tf.Variable(tf.truncated_normal([5, 5, 32, 64], stddev=0.1))
b_conv2 = tf.Variable(tf.constant(0.1, shape=[64]))
h_conv2 = tf.nn.relu(tf.nn.conv2d(h_pool1, W_conv2, strides=[1, 1, 1, 1], padding='SAME') + b_conv2)
# 第2个池化层,最大池化,大小为2x2
h_pool2 = tf.nn.max_pool(h_conv2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')
# 第1个全连接层,1024个神经元,relu激活函数
W_fc1 = tf.Variable(tf.truncated_normal([7 * 7 * 64, 1024], stddev=0.1))
b_fc1 = tf.Variable(tf.constant(0.1, shape=[1024]))
h_pool2_flat = tf.reshape(h_pool2, [-1, 7 * 7 * 64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
# Dropout层,减少过拟合
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
# 第2个全连接层,10个神经元,softmax输出
W_fc2 = tf.Variable(tf.truncated_normal([1024, 10], stddev=0.1))
b_fc2 = tf.Variable(tf.constant(0.1, shape=[10]))
y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)
```
3. 模型训练
使用TensorFlow框架进行模型训练,训练过程包含多个epoch,每个epoch会对整个数据集进行一次训练。在每个epoch中,先将训练集打乱,再将其分成若干个batch,对每个batch进行一次训练,并输出训练过程中的损失值和准确率。
```python
# 损失函数和优化器
y_ = tf.placeholder(tf.float32, [None, 10])
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y_conv), reduction_indices=[1]))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
# 准确率
correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y_, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
# 创建会话并开始训练
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for i in range(20000):
batch = mnist.train.next_batch(50)
if i % 100 == 0:
train_accuracy = accuracy.eval(feed_dict={x: batch[0], y_: batch[1], keep_prob: 1.0})
print("step %d, training accuracy %g" % (i, train_accuracy))
train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})
# 测试集准确率
print("test accuracy %g" % accuracy.eval(feed_dict={x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0}))
```
原始记录:
训练过程中输出的部分结果如下:
```
step 0, training accuracy 0.08
step 100, training accuracy 0.9
step 200, training accuracy 0.88
step 300, training accuracy 0.88
...
step 19600, training accuracy 0.98
step 19700, training accuracy 1
step 19800, training accuracy 0.92
step 19900, training accuracy 1
test accuracy 0.9876
```
数据处理:
本实验并未涉及到数据处理,因为MNIST手写数字数据集已经被预处理过,可以直接使用。但在实际应用中,数据预处理是非常重要的一步,可以对图像进行平移、旋转、缩放等操作,增加数据集的多样性,提高模型的鲁棒性。
阅读全文