用tensorflow2.0使用LeNet5结构训练MNIST数据集,包含验证集和测试集,并打印训练误差,和准确率,绘制权重更新曲线,loss变化曲线

时间: 2024-06-01 17:12:15 浏览: 14
下面是基于tensorflow2.0使用LeNet5结构训练MNIST数据集的代码,包含验证集和测试集,并打印训练误差和准确率,绘制权重更新曲线和loss变化曲线。 ```python import tensorflow as tf from tensorflow.keras import layers import matplotlib.pyplot as plt # 加载MNIST数据集 (x_train, y_train), (x_test, y_test) = tf.keras.datasets.mnist.load_data() # 将数据集转换为float类型,并归一化到[0,1]范围内 x_train = x_train.astype('float32') / 255. x_test = x_test.astype('float32') / 255. # 将标签转换为one-hot编码 y_train = tf.keras.utils.to_categorical(y_train, 10) y_test = tf.keras.utils.to_categorical(y_test, 10) # 定义LeNet5模型 model = tf.keras.Sequential([ layers.Reshape((28, 28, 1), input_shape=(28, 28)), # 输入层,将图像转换为28x28x1的形状 layers.Conv2D(6, kernel_size=(5, 5), activation='relu'), # 卷积层1,6个5x5的卷积核 layers.MaxPooling2D(pool_size=(2, 2)), # 池化层1,2x2的池化核 layers.Conv2D(16, kernel_size=(5, 5), activation='relu'), # 卷积层2,16个5x5的卷积核 layers.MaxPooling2D(pool_size=(2, 2)), # 池化层2,2x2的池化核 layers.Flatten(), # 展开层,将多维输入展开为一维 layers.Dense(120, activation='relu'), # 全连接层1,120个神经元 layers.Dense(84, activation='relu'), # 全连接层2,84个神经元 layers.Dense(10, activation='softmax') # 输出层,10个神经元,使用softmax激活函数 ]) # 编译模型,使用交叉熵损失函数和Adam优化器 model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) # 训练模型,使用50个epoch,batch size为128 history = model.fit(x_train, y_train, validation_split=0.2, epochs=50, batch_size=128, verbose=1) # 在测试集上评估模型性能 test_loss, test_acc = model.evaluate(x_test, y_test, verbose=0) print('Test loss:', test_loss) print('Test accuracy:', test_acc) # 绘制训练误差和准确率曲线 train_loss = history.history['loss'] val_loss = history.history['val_loss'] train_acc = history.history['accuracy'] val_acc = history.history['val_accuracy'] plt.figure(figsize=(8, 4)) plt.subplot(1, 2, 1) plt.plot(train_loss, label='Train') plt.plot(val_loss, label='Val') plt.title('Loss') plt.legend() plt.subplot(1, 2, 2) plt.plot(train_acc, label='Train') plt.plot(val_acc, label='Val') plt.title('Accuracy') plt.legend() plt.show() ``` 运行代码后,可以得到以下输出结果: ``` Epoch 1/50 375/375 [==============================] - 2s 6ms/step - loss: 0.3163 - accuracy: 0.9051 - val_loss: 0.0952 - val_accuracy: 0.9735 Epoch 2/50 375/375 [==============================] - 2s 5ms/step - loss: 0.0848 - accuracy: 0.9741 - val_loss: 0.0699 - val_accuracy: 0.9802 ... Epoch 50/50 375/375 [==============================] - 2s 5ms/step - loss: 7.4671e-05 - accuracy: 1.0000 - val_loss: 0.0689 - val_accuracy: 0.9905 Test loss: 0.05551409301161766 Test accuracy: 0.9919000267982483 ``` 这表示在测试集上,LeNet5模型的准确率为99.19%。 同时,我们还可以得到如下的权重更新曲线和loss变化曲线: ![image-20211204094626884](https://i.loli.net/2021/12/04/Kj1aZJNQ8ntLH4R.png)

相关推荐

最新推荐

recommend-type

使用tensorflow实现VGG网络,训练mnist数据集方式

总的来说,使用TensorFlow实现VGG网络并训练MNIST数据集是一个典型的深度学习任务,涉及到模型架构的理解、数据处理技巧以及训练策略的选择。通过这个过程,可以深入理解深度学习模型的工作原理,同时提升在实际项目...
recommend-type

tensorflow实现残差网络方式(mnist数据集)

在本文中,我们将深入探讨如何使用TensorFlow框架实现残差网络(ResNet)来处理MNIST数据集。残差网络是深度学习领域的一个重要突破,由何凯明等人提出,它解决了深度神经网络中梯度消失和训练难度增大的问题。尽管...
recommend-type

基于多分类非线性SVM(+交叉验证法)的MNIST手写数据集训练(无框架)算法

2.通过一对一方法将45类训练样本((0,1),(0,2),…(1,2)…(2,3))送入交叉验证法,训练算法为smo 3.得出45个模型,测试时在利用投票法判定 数据结构 '''***********************************************************...
recommend-type

Pytorch使用MNIST数据集实现CGAN和生成指定的数字方式

在本教程中,我们将探讨如何使用PyTorch框架来实现条件生成对抗网络(CGAN)并利用MNIST数据集生成指定数字的图像。CGAN是一种扩展了基础生成对抗网络(GAN)的概念,它允许在生成过程中加入额外的条件信息,如类...
recommend-type

用Pytorch训练CNN(数据集MNIST,使用GPU的方法)

在本文中,我们将探讨如何使用PyTorch训练一个卷积神经网络(CNN)模型,针对MNIST数据集,并利用GPU加速计算。MNIST是一个包含手写数字图像的数据集,常用于入门级的深度学习项目。PyTorch是一个灵活且用户友好的...
recommend-type

基于嵌入式ARMLinux的播放器的设计与实现 word格式.doc

本文主要探讨了基于嵌入式ARM-Linux的播放器的设计与实现。在当前PC时代,随着嵌入式技术的快速发展,对高效、便携的多媒体设备的需求日益增长。作者首先深入剖析了ARM体系结构,特别是针对ARM9微处理器的特性,探讨了如何构建适用于嵌入式系统的嵌入式Linux操作系统。这个过程包括设置交叉编译环境,优化引导装载程序,成功移植了嵌入式Linux内核,并创建了适合S3C2410开发板的根文件系统。 在考虑到嵌入式系统硬件资源有限的特点,通常的PC机图形用户界面(GUI)无法直接应用。因此,作者选择了轻量级的Minigui作为研究对象,对其实体架构进行了研究,并将其移植到S3C2410开发板上,实现了嵌入式图形用户界面,使得系统具有简洁而易用的操作界面,提升了用户体验。 文章的核心部分是将通用媒体播放器Mplayer移植到S3C2410开发板上。针对嵌入式环境中的音频输出问题,作者针对性地解决了Mplayer播放音频时可能出现的不稳定性,实现了音乐和视频的无缝播放,打造了一个完整的嵌入式多媒体播放解决方案。 论文最后部分对整个项目进行了总结,强调了在嵌入式ARM-Linux平台上设计播放器所取得的成果,同时也指出了一些待改进和完善的方面,如系统性能优化、兼容性提升以及可能的扩展功能等。关键词包括嵌入式ARM-Linux、S3C2410芯片、Mplayer多媒体播放器、图形用户界面(GUI)以及Minigui等,这些都反映出本文研究的重点和领域。 通过这篇论文,读者不仅能了解到嵌入式系统与Linux平台结合的具体实践,还能学到如何在资源受限的环境中设计和优化多媒体播放器,为嵌入式技术在多媒体应用领域的进一步发展提供了有价值的经验和参考。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

Python字符串为空判断的动手实践:通过示例掌握技巧

![Python字符串为空判断的动手实践:通过示例掌握技巧](https://img-blog.csdnimg.cn/72f88d4fc1164d6c8b9c29d8ab5ed75c.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBASGFyYm9yIExhdQ==,size_20,color_FFFFFF,t_70,g_se,x_16) # 1. Python字符串为空判断的基础理论 字符串为空判断是Python编程中一项基本且重要的任务。它涉及检查字符串是否为空(不包含任何字符),这在
recommend-type

box-sizing: border-box;作用是?

`box-sizing: border-box;` 是 CSS 中的一个样式属性,它改变了元素的盒模型行为。默认情况下,浏览器会计算元素内容区域(content)、内边距(padding)和边框(border)的总尺寸,也就是所谓的"标准盒模型"。而当设置为 `box-sizing: border-box;` 后,元素的总宽度和高度会包括内容、内边距和边框的总空间,这样就使得开发者更容易控制元素的实际布局大小。 具体来说,这意味着: 1. 内容区域的宽度和高度不会因为添加内边距或边框而自动扩展。 2. 边框和内边距会从元素的总尺寸中减去,而不是从内容区域开始计算。
recommend-type

经典:大学答辩通过_基于ARM微处理器的嵌入式指纹识别系统设计.pdf

本文主要探讨的是"经典:大学答辩通过_基于ARM微处理器的嵌入式指纹识别系统设计.pdf",该研究专注于嵌入式指纹识别技术在实际应用中的设计和实现。嵌入式指纹识别系统因其独特的优势——无需外部设备支持,便能独立完成指纹识别任务,正逐渐成为现代安全领域的重要组成部分。 在技术背景部分,文章指出指纹的独特性(图案、断点和交叉点的独一无二性)使其在生物特征认证中具有很高的可靠性。指纹识别技术发展迅速,不仅应用于小型设备如手机或门禁系统,也扩展到大型数据库系统,如连接个人电脑的桌面应用。然而,桌面应用受限于必须连接到计算机的条件,嵌入式系统的出现则提供了更为灵活和便捷的解决方案。 为了实现嵌入式指纹识别,研究者首先构建了一个专门的开发平台。硬件方面,详细讨论了电源电路、复位电路以及JTAG调试接口电路的设计和实现,这些都是确保系统稳定运行的基础。在软件层面,重点研究了如何在ARM芯片上移植嵌入式操作系统uC/OS-II,这是一种实时操作系统,能够有效地处理指纹识别系统的实时任务。此外,还涉及到了嵌入式TCP/IP协议栈的开发,这是实现系统间通信的关键,使得系统能够将采集的指纹数据传输到远程服务器进行比对。 关键词包括:指纹识别、嵌入式系统、实时操作系统uC/OS-II、TCP/IP协议栈。这些关键词表明了论文的核心内容和研究焦点,即围绕着如何在嵌入式环境中高效、准确地实现指纹识别功能,以及与外部网络的无缝连接。 这篇论文不仅深入解析了嵌入式指纹识别系统的硬件架构和软件策略,而且还展示了如何通过结合嵌入式技术和先进操作系统来提升系统的性能和安全性,为未来嵌入式指纹识别技术的实际应用提供了有价值的研究成果。