tensorflow设计一个卷积神经网络识别MNIST手写数字的完整实验报告

时间: 2023-12-04 12:05:50 浏览: 209
MNIST是一个手写数字识别数据集,包含了许多28x28像素的手写数字图片,每个数字都标记有其对应的数字。在这个实验中,我们将使用TensorFlow来构建一个卷积神经网络来识别这些手写数字。 ## 实验数据 首先,我们需要下载MNIST数据集。可以使用以下代码: ```python from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) ``` 这将会下载MNIST数据集并存储在指定的文件夹中。我们将使用`one_hot=True`参数来表示每个数字的标签将会使用one-hot编码。 ## 构建模型 接下来,我们将构建一个卷积神经网络模型。我们将使用两个卷积层,两个最大池化层和两个全连接层。下面是我们的模型架构: 1. 输入层:28x28像素的MNIST图片。 2. 第一个卷积层:32个5x5的卷积核,ReLU激活函数。 3. 第一个最大池化层:2x2大小的池化窗口,步长为2。 4. 第二个卷积层:64个5x5的卷积核,ReLU激活函数。 5. 第二个最大池化层:2x2大小的池化窗口,步长为2。 6. 第一个全连接层:1024个神经元,ReLU激活函数。 7. Dropout层:0.5的概率随机丢弃。 8. 第二个全连接层:10个神经元,softmax激活函数。 下面是我们的模型实现: ```python import tensorflow as tf # 定义输入层 x = tf.placeholder(tf.float32, [None, 784]) # 第一个卷积层 W_conv1 = tf.Variable(tf.truncated_normal([5, 5, 1, 32], stddev=0.1)) b_conv1 = tf.Variable(tf.constant(0.1, shape=[32])) x_image = tf.reshape(x, [-1, 28, 28, 1]) h_conv1 = tf.nn.relu(tf.nn.conv2d(x_image, W_conv1, strides=[1, 1, 1, 1], padding='SAME') + b_conv1) # 第一个最大池化层 h_pool1 = tf.nn.max_pool(h_conv1, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME') # 第二个卷积层 W_conv2 = tf.Variable(tf.truncated_normal([5, 5, 32, 64], stddev=0.1)) b_conv2 = tf.Variable(tf.constant(0.1, shape=[64])) h_conv2 = tf.nn.relu(tf.nn.conv2d(h_pool1, W_conv2, strides=[1, 1, 1, 1], padding='SAME') + b_conv2) # 第二个最大池化层 h_pool2 = tf.nn.max_pool(h_conv2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME') # 第一个全连接层 W_fc1 = tf.Variable(tf.truncated_normal([7 * 7 * 64, 1024], stddev=0.1)) b_fc1 = tf.Variable(tf.constant(0.1, shape=[1024])) h_pool2_flat = tf.reshape(h_pool2, [-1, 7 * 7 * 64]) h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1) # Dropout层 keep_prob = tf.placeholder(tf.float32) h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob) # 第二个全连接层 W_fc2 = tf.Variable(tf.truncated_normal([1024, 10], stddev=0.1)) b_fc2 = tf.Variable(tf.constant(0.1, shape=[10])) y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2) # 定义损失函数和优化器 y_ = tf.placeholder(tf.float32, [None, 10]) cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y_conv), reduction_indices=[1])) train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) # 定义准确率 correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y_, 1)) accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) ``` ## 训练模型 我们使用随机梯度下降法来训练模型。下面是我们的训练代码: ```python with tf.Session() as sess: sess.run(tf.global_variables_initializer()) for i in range(20000): batch = mnist.train.next_batch(50) if i % 100 == 0: train_accuracy = accuracy.eval(feed_dict={x: batch[0], y_: batch[1], keep_prob: 1.0}) print("step %d, training accuracy %g" % (i, train_accuracy)) train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5}) print("test accuracy %g" % accuracy.eval(feed_dict={x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0})) ``` 在每次迭代中,我们随机选择50个图片作为一个batch,然后使用`train_step.run()`函数来执行一次梯度下降。每100次迭代,我们计算一次训练集的准确率。 ## 实验结果 经过20000次迭代,我们得到了一个在测试集上准确率为99.2%的模型。下面是完整的代码: ```python import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data # 定义输入层 x = tf.placeholder(tf.float32, [None, 784]) # 第一个卷积层 W_conv1 = tf.Variable(tf.truncated_normal([5, 5, 1, 32], stddev=0.1)) b_conv1 = tf.Variable(tf.constant(0.1, shape=[32])) x_image = tf.reshape(x, [-1, 28, 28, 1]) h_conv1 = tf.nn.relu(tf.nn.conv2d(x_image, W_conv1, strides=[1, 1, 1, 1], padding='SAME') + b_conv1) # 第一个最大池化层 h_pool1 = tf.nn.max_pool(h_conv1, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME') # 第二个卷积层 W_conv2 = tf.Variable(tf.truncated_normal([5, 5, 32, 64], stddev=0.1)) b_conv2 = tf.Variable(tf.constant(0.1, shape=[64])) h_conv2 = tf.nn.relu(tf.nn.conv2d(h_pool1, W_conv2, strides=[1, 1, 1, 1], padding='SAME') + b_conv2) # 第二个最大池化层 h_pool2 = tf.nn.max_pool(h_conv2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME') # 第一个全连接层 W_fc1 = tf.Variable(tf.truncated_normal([7 * 7 * 64, 1024], stddev=0.1)) b_fc1 = tf.Variable(tf.constant(0.1, shape=[1024])) h_pool2_flat = tf.reshape(h_pool2, [-1, 7 * 7 * 64]) h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1) # Dropout层 keep_prob = tf.placeholder(tf.float32) h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob) # 第二个全连接层 W_fc2 = tf.Variable(tf.truncated_normal([1024, 10], stddev=0.1)) b_fc2 = tf.Variable(tf.constant(0.1, shape=[10])) y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2) # 定义损失函数和优化器 y_ = tf.placeholder(tf.float32, [None, 10]) cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y_conv), reduction_indices=[1])) train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) # 定义准确率 correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y_, 1)) accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) # 读取MNIST数据集 mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) # 训练模型 with tf.Session() as sess: sess.run(tf.global_variables_initializer()) for i in range(20000): batch = mnist.train.next_batch(50) if i % 100 == 0: train_accuracy = accuracy.eval(feed_dict={x: batch[0], y_: batch[1], keep_prob: 1.0}) print("step %d, training accuracy %g" % (i, train_accuracy)) train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5}) print("test accuracy %g" % accuracy.eval(feed_dict={x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0})) ``` ## 结论 在这个实验中,我们使用TensorFlow构建了一个卷积神经网络来识别MNIST手写数字。我们的模型在测试集上达到了99.2%的准确率。这表明卷积神经网络是一个强大的工具,可以用于许多计算机视觉任务。
阅读全文

相关推荐

大家在看

recommend-type

软件工程-总体设计概述(ppt-113页).ppt

软件工程-总体设计概述(ppt-113页).ppt
recommend-type

欧姆龙编码器E6B2-CWZ6C

本文档介绍了欧姆龙编码器的基本数据以及使用方式,可以供给那些需要使用欧姆龙编码器的同学阅读
recommend-type

中国移动5G规模试验测试规范--核心网领域--SA基础网元性能测试分册.pdf

目 录 前 言............................................................................................................................ 1 1. 范围........................................................................................................................... 2 2. 规范性引用文件....................................................................................................... 2 3. 术语、定义和缩略语............................................................................................... 2 3.1. 测试对象........................................................................................................ 3 4. 测试对象及网络拓扑............................................................................................... 3 ................................................................................................................................ 3 4.1. 测试组网........................................................................................................ 3 5. 业务模型和测试方法............................................................................................... 6 5.1. 业务模型........................................................................................................ 6 5.2. 测试方法........................................................................................................ 7 6. 测试用例................................................................................................................... 7 6.1. AMF性能测试................................................................................................ 7 6.1.1. 注册请求处理能力测试..................................................................... 7 6.1.2. 基于业务模型的单元容量测试.........................................................9 6.1.3. AMF并发连接管理性能测试........................................................... 10 6.2. SMF性能测试............................................................................................... 12 6.2.1. 会话创建处理能力测试................................................................... 12 6.2.2. 基
recommend-type

Pr1Wire2432Eng_reset_2432_

THIS SOFTWARE IS DESIGNED TO RESET CHIP 2432
recommend-type

10-虚拟内存的基本概念和请求分页处理方式.pdf

虚拟内存的基本概念和请求分页处理方式

最新推荐

recommend-type

手写数字识别:实验报告

实验报告“手写数字识别”主要探讨了在AI领域如何运用不同的神经网络模型来识别手写数字。实验基于AIstudio平台,涵盖了数据预处理、数据加载、多种网络结构的尝试、损失函数的选择以及优化算法的应用,并展示了实验...
recommend-type

基于TensorFlow的CNN实现Mnist手写数字识别

在本文中,我们将深入探讨如何使用TensorFlow库构建一个卷积神经网络(CNN)来识别Mnist手写数字数据集。Mnist数据集是机器学习领域的一个经典基准,包含60,000个训练样本和10,000个测试样本,每个样本都是28x28像素...
recommend-type

Pytorch实现的手写数字mnist识别功能完整示例

总的来说,这个示例展示了如何使用Pytorch构建、训练和测试一个简单的CNN模型来识别MNIST数据集中的手写数字。通过理解并实践这个示例,开发者可以更好地掌握Pytorch的基本用法,并将其应用于更复杂的深度学习任务。
recommend-type

Python利用逻辑回归模型解决MNIST手写数字识别问题详解

在机器学习领域,图像识别是一个重要的应用场景,尤其是对于手写数字的识别。MNIST数据集是这个领域的一个经典基准,它包含了大量28x28像素的手写数字图像。这篇文章将深入探讨如何使用Python中的逻辑回归模型来解决...
recommend-type

pytorch 利用lstm做mnist手写数字识别分类的实例

在本实例中,我们将探讨如何使用PyTorch构建一个基于LSTM(长短期记忆网络)的手写数字识别模型,以解决MNIST数据集的问题。MNIST数据集包含大量的手写数字图像,通常用于训练和测试计算机视觉算法,尤其是深度学习...
recommend-type

Terraform AWS ACM 59版本测试与实践

资源摘要信息:"本资源是关于Terraform在AWS上操作ACM(AWS Certificate Manager)的模块的测试版本。Terraform是一个开源的基础设施即代码(Infrastructure as Code,IaC)工具,它允许用户使用代码定义和部署云资源。AWS Certificate Manager(ACM)是亚马逊提供的一个服务,用于自动化申请、管理和部署SSL/TLS证书。在本资源中,我们特别关注的是Terraform的一个特定版本的AWS ACM模块的测试内容,版本号为59。 在AWS中部署和管理SSL/TLS证书是确保网站和应用程序安全通信的关键步骤。ACM服务可以免费管理这些证书,当与Terraform结合使用时,可以让开发者以声明性的方式自动化证书的获取和配置,这样可以大大简化证书管理流程,并保持与AWS基础设施的集成。 通过使用Terraform的AWS ACM模块,开发人员可以编写Terraform配置文件,通过简单的命令行指令就能申请、部署和续订SSL/TLS证书。这个模块可以实现以下功能: 1. 自动申请Let's Encrypt的免费证书或者导入现有的证书。 2. 将证书与AWS服务关联,如ELB(Elastic Load Balancing)、CloudFront和API Gateway等。 3. 管理证书的过期时间,自动续订证书以避免服务中断。 4. 在多区域部署中同步证书信息,确保全局服务的一致性。 测试版本59的资源意味着开发者可以验证这个版本是否满足了需求,是否存在任何的bug或不足之处,并且提供反馈。在这个版本中,开发者可以测试Terraform AWS ACM模块的稳定性和性能,确保在真实环境中部署前一切工作正常。测试内容可能包括以下几个方面: - 模块代码的语法和结构检查。 - 模块是否能够正确执行所有功能。 - 模块与AWS ACM服务的兼容性和集成。 - 模块部署后证书的获取、安装和续订的可靠性。 - 多区域部署的证书同步机制是否有效。 - 测试异常情况下的错误处理机制。 - 确保文档的准确性和完整性。 由于资源中没有提供具体的标签,我们无法从中获取关于测试的详细技术信息。同样,由于只提供了一个文件名“terraform-aws-acm-59-master”,无法得知该模块具体包含哪些文件和代码内容。然而,文件名暗示这是一个主版本(master),通常意味着这是主要的、稳定的分支,开发者可以在其上构建和测试他们的配置。 总之,terraform-aws-acm-59是Terraform的一个AWS ACM模块的测试版本,用于自动化管理和部署SSL/TLS证书。这个模块能够简化证书生命周期的管理,并提高与AWS服务的集成效率。测试工作主要是为了验证版本59的模块是否正常工作,并确保其在真实场景中可靠地执行预期功能。"
recommend-type

【HS1101湿敏电阻全面解析】:从基础知识到深度应用的完整指南

# 摘要 HS1101湿敏电阻作为湿度监测的重要元件,在环境监测、农业、工业等多个领域都有广泛应用。本文首先对湿敏电阻的基本概念及其工作原理进行了概述,接着详细探讨了其特性参数,如响应时间、灵敏度以及温度系数等,并针对HS1101型号提供了选型指南和实际应用场景分析。文章还深入讨论了HS1101湿敏电阻在电路设计中的要点和信号处理方法,提供了实践案例来展示其在智能湿度调节器和农业自动灌溉系统中的应用。最后,本文给出了湿敏电阻的维护保养技巧和故障排除方法,以帮助用户确保湿敏电阻的最佳性能和使用寿命。 # 关键字 湿敏电阻;HS1101;特性参数;电路设计;信号处理;环境监测;故障排除 参考资
recommend-type

MATLAB在一个图形窗口中创建一行两列的子图的代码

在MATLAB中,可以使用`subplot`函数在一个图形窗口中创建多个子图。对于一行两列的子图,可以使用以下代码: ```matlab % 创建第一个子图 subplot(1, 2, 1); plot([1, 2, 3], [4, 5, 6]); title('子图1'); % 创建第二个子图 subplot(1, 2, 2); plot([1, 2, 3], [6, 5, 4]); title('子图2'); ``` 这段代码的详细解释如下: 1. `subplot(1, 2, 1);`:创建一个1行2列的子图布局,并激活第一个子图。 2. `plot([1, 2, 3], [4,
recommend-type

Doks Hugo主题:打造安全快速的现代文档网站

资源摘要信息:"Doks是一个适用于Hugo的现代文档主题,旨在帮助用户构建安全、快速且对搜索引擎优化友好的文档网站。在短短1分钟内即可启动一个具有Doks特色的演示网站。以下是选择Doks的九个理由: 1. 安全意识:Doks默认提供高安全性的设置,支持在上线时获得A+的安全评分。用户还可以根据自己的需求轻松更改默认的安全标题。 2. 默认快速:Doks致力于打造速度,通过删除未使用的CSS,实施预取链接和图像延迟加载技术,在上线时自动达到100分的速度评价。这些优化有助于提升网站加载速度,提供更佳的用户体验。 3. SEO就绪:Doks内置了对结构化数据、开放图谱和Twitter卡的智能默认设置,以帮助网站更好地被搜索引擎发现和索引。用户也能根据自己的喜好对SEO设置进行调整。 4. 开发工具:Doks为开发人员提供了丰富的工具,包括代码检查功能,以确保样式、脚本和标记无错误。同时,还支持自动或手动修复常见问题,保障代码质量。 5. 引导框架:Doks利用Bootstrap框架来构建网站,使得网站不仅健壮、灵活而且直观易用。当然,如果用户有其他前端框架的需求,也可以轻松替换使用。 6. Netlify就绪:Doks为部署到Netlify提供了合理的默认配置。用户可以利用Netlify平台的便利性,轻松部署和维护自己的网站。 7. SCSS支持:在文档主题中提及了SCSS,这表明Doks支持使用SCSS作为样式表预处理器,允许更高级的CSS样式化和模块化设计。 8. 多语言支持:虽然没有在描述中明确提及,但Doks作为Hugo主题,通常具备多语言支持功能,这为构建国际化文档网站提供了便利。 9. 定制性和可扩展性:Doks通过其设计和功能的灵活性,允许用户根据自己的品牌和项目需求进行定制。这包括主题颜色、布局选项以及组件的添加或修改。 文件名称 'docs-main' 可能是Doks主题的核心文件,包含网站的主要内容和配置。这个文件对于设置和维护文档网站来说是至关重要的,因为它包含了网站的主要配置信息,如导航结构、品牌设置、SEO配置等。开发者在使用Doks主题时,将重点调整和优化这个文件以满足具体的项目需求。"
recommend-type

E9流程表单前端接口API(V5):前端与后端协同开发的黄金法则

![E9流程表单前端接口API(V5):前端与后端协同开发的黄金法则](https://opengraph.githubassets.com/4b7b246f81a756c8056ca0f80a5b46fad74e128b86dec7d59f1aeedb4b99c6a7/sotiriosmoustogiannis/process-json-format) # 摘要 本文全面介绍了E9流程表单API(V5)的开发与应用,阐述了协同开发理论基础和前端实践,并结合案例分析展示了API在企业流程自动化中的实战应用。文章首先概述了E9流程表单API(V5)的核心概念,然后详细探讨了前后端协同开发的重要