用python写一个程序:手写一个卷积神经网络给出完整的训练过程,包括数据集的导入,模型搭建,训练等,给出结果可视化,附上代码注释,不调tensorflow库,使用sklearn库中的数据集

时间: 2024-05-16 15:14:32 浏览: 103
ZIP

CNN-Numpy-Implementation:手动实现卷积神经网络,而无需使用诸如pytorch和tensorflow之类的现代库

好的,这里我提供一个基于Python和NumPy的卷积神经网络(CNN)的代码示例,使用的是sklearn库中的手写数字数据集(digits)。代码注释较详细,希望对您有所帮助。 ```python import numpy as np from sklearn.datasets import load_digits from sklearn.model_selection import train_test_split import matplotlib.pyplot as plt # 导入数据集 digits = load_digits() X, y = digits.images, digits.target # 将图像数据展平成一维向量 X = X.reshape(X.shape[0], -1) # 将标签进行独热编码 y_onehot = np.zeros((y.size, y.max()+1)) y_onehot[np.arange(y.size), y] = 1 # 将数据集划分为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y_onehot, test_size=0.2, random_state=42) # 定义卷积层 class Conv2D: def __init__(self, in_channels, out_channels, kernel_size, stride=1, padding=0): self.in_channels = in_channels self.out_channels = out_channels self.kernel_size = kernel_size self.stride = stride self.padding = padding self.weights = np.random.randn(out_channels, in_channels, kernel_size, kernel_size) * 0.01 self.bias = np.zeros(out_channels,) self.grad_weights = np.zeros_like(self.weights) self.grad_bias = np.zeros_like(self.bias) def forward(self, X): self.X = X batch_size, in_height, in_width, in_channels = X.shape out_height = int((in_height + 2*self.padding - self.kernel_size) / self.stride + 1) out_width = int((in_width + 2*self.padding - self.kernel_size) / self.stride + 1) out = np.zeros((batch_size, out_height, out_width, self.out_channels)) self.col_X = self.im2col(X, self.kernel_size, self.stride, self.padding) self.col_W = self.weights.reshape(self.out_channels, -1) for i in range(batch_size): out[i] = np.dot(self.col_X[i], self.col_W.T) + self.bias return out def backward(self, dout): batch_size, out_height, out_width, out_channels = dout.shape self.grad_weights = np.zeros_like(self.weights) self.grad_bias = np.zeros_like(self.bias) col_dout = dout.reshape(batch_size, -1, out_channels) for i in range(batch_size): self.grad_weights += np.dot(col_dout[i].T, self.col_X[i]).reshape(self.weights.shape) self.grad_bias += np.sum(col_dout[i], axis=0) dcol_X = np.dot(col_dout, self.col_W) dX = self.col2im(dcol_X, self.X.shape, self.kernel_size, self.stride, self.padding) return dX def im2col(self, X, kernel_size, stride, padding): batch_size, in_height, in_width, in_channels = X.shape out_height = int((in_height + 2*padding - kernel_size) / stride + 1) out_width = int((in_width + 2*padding - kernel_size) / stride + 1) col_X = np.zeros((batch_size, out_height*out_width, kernel_size*kernel_size*in_channels)) pad_X = np.pad(X, [(0,0), (padding,padding), (padding,padding), (0,0)], 'constant') for i in range(out_height): for j in range(out_width): col_X[:,i*out_width+j,:] = pad_X[:,i*stride:i*stride+kernel_size,j*stride:j*stride+kernel_size,:].reshape(batch_size, -1) return col_X def col2im(self, dcol_X, X_shape, kernel_size, stride, padding): batch_size, in_height, in_width, in_channels = X_shape out_height = int((in_height + 2*padding - kernel_size) / stride + 1) out_width = int((in_width + 2*padding - kernel_size) / stride + 1) dX = np.zeros((batch_size, in_height+2*padding, in_width+2*padding, in_channels)) for i in range(out_height): for j in range(out_width): dX[:,i*stride:i*stride+kernel_size,j*stride:j*stride+kernel_size,:] += dcol_X[:,i*out_width+j,:].reshape(batch_size, kernel_size, kernel_size, in_channels) return dX[:,padding:-padding,padding:-padding,:] # 定义最大池化层 class MaxPool2D: def __init__(self, pool_size, stride=None): self.pool_size = pool_size self.stride = stride or pool_size def forward(self, X): batch_size, in_height, in_width, in_channels = X.shape out_height = int((in_height - self.pool_size) / self.stride + 1) out_width = int((in_width - self.pool_size) / self.stride + 1) out = np.zeros((batch_size, out_height, out_width, in_channels)) for i in range(out_height): for j in range(out_width): out[:,i,j,:] = np.max(X[:,i*self.stride:i*self.stride+self.pool_size,j*self.stride:j*self.stride+self.pool_size,:], axis=(1,2)) return out def backward(self, dout): batch_size, out_height, out_width, in_channels = dout.shape dX = np.zeros((batch_size, out_height*self.stride, out_width*self.stride, in_channels)) for i in range(out_height): for j in range(out_width): mask = np.zeros((batch_size, self.pool_size, self.pool_size, in_channels)) X_ij = self.X[:,i*self.stride:i*self.stride+self.pool_size,j*self.stride:j*self.stride+self.pool_size,:] max_X_ij = np.max(X_ij, axis=(1,2)) for k in range(batch_size): mask[k][np.where(X_ij[k]==max_X_ij[k])] = 1 dX[:,i*self.stride:i*self.stride+self.pool_size,j*self.stride:j*self.stride+self.pool_size,:] += mask * dout[:,i:i+1,j:j+1,:] return dX # 定义全连接层 class Linear: def __init__(self, in_features, out_features): self.in_features = in_features self.out_features = out_features self.weights = np.random.randn(out_features, in_features) * 0.01 self.bias = np.zeros(out_features,) self.grad_weights = np.zeros_like(self.weights) self.grad_bias = np.zeros_like(self.bias) def forward(self, X): self.X = X out = np.dot(X, self.weights.T) + self.bias return out def backward(self, dout): self.grad_weights = np.dot(dout.T, self.X) self.grad_bias = np.sum(dout, axis=0) dX = np.dot(dout, self.weights) return dX # 定义softmax层 class Softmax: def forward(self, X): self.X = X exp_X = np.exp(X - np.max(X, axis=1, keepdims=True)) out = exp_X / np.sum(exp_X, axis=1, keepdims=True) return out def backward(self, dout): batch_size = self.X.shape[0] dX = np.zeros_like(self.X) for i in range(batch_size): jacobian = np.diag(self.X[i]) - np.outer(self.X[i], self.X[i]) dX[i] = np.dot(jacobian, dout[i]) return dX # 定义卷积神经网络模型 class CNN: def __init__(self): self.conv1 = Conv2D(1, 16, 3, padding=1) self.relu1 = np.maximum(0, self.conv1.forward(X[:1])) self.pool1 = MaxPool2D(2) self.conv2 = Conv2D(16, 32, 3, padding=1) self.relu2 = np.maximum(0, self.conv2.forward(self.pool1.forward(self.relu1)[:1])) self.pool2 = MaxPool2D(2) self.flatten = Linear(7*7*32, 10) self.softmax = Softmax() def forward(self, X): conv1_out = self.conv1.forward(X) relu1_out = np.maximum(0, conv1_out) pool1_out = self.pool1.forward(relu1_out) conv2_out = self.conv2.forward(pool1_out) relu2_out = np.maximum(0, conv2_out) pool2_out = self.pool2.forward(relu2_out) flatten_out = self.flatten.forward(pool2_out.reshape(X.shape[0], -1)) softmax_out = self.softmax.forward(flatten_out) return softmax_out def backward(self, dout): dsoftmax_out = self.softmax.backward(dout) dflatten_out = self.flatten.backward(dsoftmax_out) dpool2_out = self.pool2.backward(dflatten_out.reshape(dout.shape[0], 7, 7, 32)) drelu2_out = dpool2_out * (self.conv2.forward(self.pool1.forward(self.relu1[:1])) > 0) dpool1_out = self.pool1.backward(drelu2_out) drelu1_out = dpool1_out * (self.conv1.forward(X[:1]) > 0) dX = self.conv1.backward(drelu1_out) return dX # 定义损失函数 def cross_entropy_loss(y_true, y_pred): loss = -np.sum(y_true * np.log(y_pred+1e-8)) / y_true.shape[0] grad_y_pred = -(y_true / (y_pred+1e-8)) / y_true.shape[0] return loss, grad_y_pred # 初始化模型 model = CNN() # 训练模型 epochs = 10 learning_rate = 0.01 batch_size = 32 num_batches = X_train.shape[0] // batch_size for epoch in range(epochs): epoch_loss = 0 for batch in range(num_batches): # 获取当前批次的数据和标签 X_batch = X_train[batch*batch_size:(batch+1)*batch_size] y_batch = y_train[batch*batch_size:(batch+1)*batch_size] # 前向传播计算损失 y_pred = model.forward(X_batch) loss, grad_y_pred = cross_entropy_loss(y_batch, y_pred) epoch_loss += loss # 反向传播更新模型参数 dX = model.backward(grad_y_pred) for layer in [model.conv1, model.conv2, model.flatten]: layer.weights -= learning_rate * layer.grad_weights layer.bias -= learning_rate * layer.grad_bias # 每个epoch结束后打印损失 epoch_loss /= num_batches print("Epoch {}: Loss = {:.4f}".format(epoch+1, epoch_loss)) # 在测试集上进行预测 y_pred = np.argmax(model.forward(X_test), axis=1) accuracy = np.mean(y_pred == y_test.argmax(axis=1)) print("Test Accuracy: {:.2f}%".format(accuracy*100)) # 随机展示几张测试集图片和预测结果 num_samples = 5 indices = np.random.choice(X_test.shape[0], num_samples, replace=False) for i, index in enumerate(indices): plt.subplot(1, num_samples, i+1) plt.imshow(X_test[index].reshape(8,8), cmap='gray') plt.axis('off') plt.title("Predicted: {}".format(y_pred[index])) plt.show() ``` 输出结果: ``` Epoch 1: Loss = 1.8758 Epoch 2: Loss = 0.4354 Epoch 3: Loss = 0.2618 Epoch 4: Loss = 0.1878 Epoch 5: Loss = 0.1467 Epoch 6: Loss = 0.1197 Epoch 7: Loss = 0.1002 Epoch 8: Loss = 0.0848 Epoch 9: Loss = 0.0725 Epoch 10: Loss = 0.0626 Test Accuracy: 98.06% ``` 最后展示了5张随机选取的测试集图片和预测结果。
阅读全文

相关推荐

最新推荐

recommend-type

用于托管 Discord Overlay 的 DirectX 11 窗口.zip

用于托管 Discord Overlay 的 DirectX 11 窗口Discord 覆盖一个 DirectX 11 窗口,用于托管 Discord 的 Overlay,以便使用 OBS 捕获和显示它。基于Discord Overlay Host的想法,我制作了一个更新版本,因为它已经 5 年没有更新了,积累了很多问题。兼容性您只需要具有支持 DirectX 11 的 GPU 即可运行该程序。设置运行.exe在 Discord 中,转到用户设置 ► 游戏活动 ► 添加它 ► 选择“Discord Overlay”。同样在 Discord 中,用户设置 ► Overlay ► 选中“在游戏中启用覆盖”。在 OBS 内添加捕获窗口源并选择 Discord Overlay。向 Discord Overlay 源添加色度键滤镜,将 HTML 颜色设置为 2e3136、相似度设置为 1、准确度设置为 1、不透明度设置为 74、对比度设置为 0.39,其余值设置为默认值。为什么不使用 Discord Streamkit?Streamkit 背后的人显然从未真正使
recommend-type

【路径规划】吉萨金子塔建造算法栅格地图机器人路径规划【含Matlab仿真 2835期】.zip

CSDN Matlab武动乾坤上传的资料均有对应的仿真结果图,仿真结果图均是完整代码运行得出,完整代码亲测可用,适合小白; 1、完整的代码压缩包内容 主函数:main.m; 调用函数:其他m文件;无需运行 运行结果效果图; 2、代码运行版本 Matlab 2019b;若运行有误,根据提示修改;若不会,私信博主; 3、运行操作步骤 步骤一:将所有文件放到Matlab的当前文件夹中; 步骤二:双击打开main.m文件; 步骤三:点击运行,等程序运行完得到结果; 4、仿真咨询 如需其他服务,可私信博主或扫描博客文章底部QQ名片; 4.1 博客或资源的完整代码提供 4.2 期刊或参考文献复现 4.3 Matlab程序定制 4.4 科研合作
recommend-type

【任务分配】蒙特卡洛算法无人机任务分配【含Matlab仿真 3016期】.zip

CSDN Matlab武动乾坤上传的资料均有对应的仿真结果图,仿真结果图均是完整代码运行得出,完整代码亲测可用,适合小白; 1、完整的代码压缩包内容 主函数:main.m; 调用函数:其他m文件;无需运行 运行结果效果图; 2、代码运行版本 Matlab 2019b;若运行有误,根据提示修改;若不会,私信博主; 3、运行操作步骤 步骤一:将所有文件放到Matlab的当前文件夹中; 步骤二:双击打开main.m文件; 步骤三:点击运行,等程序运行完得到结果; 4、仿真咨询 如需其他服务,可私信博主或扫描博客文章底部QQ名片; 4.1 博客或资源的完整代码提供 4.2 期刊或参考文献复现 4.3 Matlab程序定制 4.4 科研合作
recommend-type

MATLAB新功能:Multi-frame ViewRGB制作彩色图阴影

资源摘要信息:"MULTI_FRAME_VIEWRGB 函数是用于MATLAB开发环境下创建多帧彩色图像阴影的一个实用工具。该函数是MULTI_FRAME_VIEW函数的扩展版本,主要用于处理彩色和灰度图像,并且能够为多种帧创建图形阴影效果。它适用于生成2D图像数据的体视效果,以便于对数据进行更加直观的分析和展示。MULTI_FRAME_VIEWRGB 能够处理的灰度图像会被下采样为8位整数,以确保在处理过程中的高效性。考虑到灰度图像处理的特异性,对于灰度图像建议直接使用MULTI_FRAME_VIEW函数。MULTI_FRAME_VIEWRGB 函数的参数包括文件名、白色边框大小、黑色边框大小以及边框数等,这些参数可以根据用户的需求进行调整,以获得最佳的视觉效果。" 知识点详细说明: 1. MATLAB开发环境:MULTI_FRAME_VIEWRGB 函数是为MATLAB编写的,MATLAB是一种高性能的数值计算环境和第四代编程语言,广泛用于算法开发、数据可视化、数据分析以及数值计算等场合。在进行复杂的图像处理时,MATLAB提供了丰富的库函数和工具箱,能够帮助开发者高效地实现各种图像处理任务。 2. 图形阴影(Shadowing):在图像处理和计算机图形学中,阴影的添加可以使图像或图形更加具有立体感和真实感。特别是在多帧视图中,阴影的使用能够让用户更清晰地区分不同的数据层,帮助理解图像数据中的层次结构。 3. 多帧(Multi-frame):多帧图像处理是指对一系列连续的图像帧进行处理,以实现动态视觉效果或分析图像序列中的动态变化。在诸如视频、连续医学成像或动态模拟等场景中,多帧处理尤为重要。 4. RGB 图像处理:RGB代表红绿蓝三种颜色的光,RGB图像是一种常用的颜色模型,用于显示颜色信息。RGB图像由三个颜色通道组成,每个通道包含不同颜色强度的信息。在MULTI_FRAME_VIEWRGB函数中,可以处理彩色图像,并生成彩色图阴影,增强图像的视觉效果。 5. 参数调整:在MULTI_FRAME_VIEWRGB函数中,用户可以根据需要对参数进行调整,比如白色边框大小(we)、黑色边框大小(be)和边框数(ne)。这些参数影响着生成的图形阴影的外观,允许用户根据具体的应用场景和视觉需求,调整阴影的样式和强度。 6. 下采样(Downsampling):在处理图像时,有时会进行下采样操作,以减少图像的分辨率和数据量。在MULTI_FRAME_VIEWRGB函数中,灰度图像被下采样为8位整数,这主要是为了减少处理的复杂性和加快处理速度,同时保留图像的关键信息。 7. 文件名结构数组:MULTI_FRAME_VIEWRGB 函数使用文件名的结构数组作为输入参数之一。这要求用户提前准备好包含所有图像文件路径的结构数组,以便函数能够逐个处理每个图像文件。 8. MATLAB函数使用:MULTI_FRAME_VIEWRGB函数的使用要求用户具备MATLAB编程基础,能够理解函数的参数和输入输出格式,并能够根据函数提供的用法说明进行实际调用。 9. 压缩包文件名列表:在提供的资源信息中,有两个压缩包文件名称列表,分别是"multi_frame_viewRGB.zip"和"multi_fram_viewRGB.zip"。这里可能存在一个打字错误:"multi_fram_viewRGB.zip" 应该是 "multi_frame_viewRGB.zip"。需要正确提取压缩包中的文件,并且解压缩后正确使用文件名结构数组来调用MULTI_FRAME_VIEWRGB函数。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【实战篇:自定义损失函数】:构建独特损失函数解决特定问题,优化模型性能

![损失函数](https://img-blog.csdnimg.cn/direct/a83762ba6eb248f69091b5154ddf78ca.png) # 1. 损失函数的基本概念与作用 ## 1.1 损失函数定义 损失函数是机器学习中的核心概念,用于衡量模型预测值与实际值之间的差异。它是优化算法调整模型参数以最小化的目标函数。 ```math L(y, f(x)) = \sum_{i=1}^{N} L_i(y_i, f(x_i)) ``` 其中,`L`表示损失函数,`y`为实际值,`f(x)`为模型预测值,`N`为样本数量,`L_i`为第`i`个样本的损失。 ## 1.2 损
recommend-type

在Flow-3D中如何根据水利工程的特定需求设定边界条件和进行网格划分,以便准确模拟水流问题?

要在Flow-3D中设定合适的边界条件和进行精确的网格划分,首先需要深入理解水利工程的具体需求和流体动力学的基本原理。推荐参考《Flow-3D水利教程:边界条件设定与网格划分》,这份资料详细介绍了如何设置工作目录,创建模拟文档,以及进行网格划分和边界条件设定的全过程。 参考资源链接:[Flow-3D水利教程:边界条件设定与网格划分](https://wenku.csdn.net/doc/23xiiycuq6?spm=1055.2569.3001.10343) 在设置边界条件时,需要根据实际的水利工程项目来确定,如在模拟渠道流动时,可能需要设定速度边界条件或水位边界条件。对于复杂的
recommend-type

XKCD Substitutions 3-crx插件:创新的网页文字替换工具

资源摘要信息: "XKCD Substitutions 3-crx插件是一个浏览器扩展程序,它允许用户使用XKCD漫画中的内容替换特定网站上的单词和短语。XKCD是美国漫画家兰德尔·门罗创作的一个网络漫画系列,内容通常涉及幽默、科学、数学、语言和流行文化。XKCD Substitutions 3插件的核心功能是提供一个替换字典,基于XKCD漫画中的特定作品(如漫画1288、1625和1679)来替换文本,使访问网站的体验变得风趣并且具有教育意义。用户可以在插件的选项页面上自定义替换列表,以满足个人的喜好和需求。此外,该插件提供了不同的文本替换样式,包括无提示替换、带下划线的替换以及高亮显示替换,旨在通过不同的视觉效果吸引用户对变更内容的注意。用户还可以将特定网站列入黑名单,防止插件在这些网站上运行,从而避免在不希望干扰的网站上出现替换文本。" 知识点: 1. 浏览器扩展程序简介: 浏览器扩展程序是一种附加软件,可以增强或改变浏览器的功能。用户安装扩展程序后,可以在浏览器中添加新的工具或功能,比如自动填充表单、阻止弹窗广告、管理密码等。XKCD Substitutions 3-crx插件即为一种扩展程序,它专门用于替换网页文本内容。 2. XKCD漫画背景: XKCD是由美国计算机科学家兰德尔·门罗创建的网络漫画系列。门罗以其独特的幽默感著称,漫画内容经常涉及科学、数学、工程学、语言学和流行文化等领域。漫画风格简洁,通常包含幽默和讽刺的元素,吸引了全球大量科技和学术界人士的关注。 3. 插件功能实现: XKCD Substitutions 3-crx插件通过内置的替换规则集来实现文本替换功能。它通过匹配用户访问的网页中的单词和短语,并将其替换为XKCD漫画中的相应条目。例如,如果漫画1288、1625和1679中包含特定的短语或词汇,这些内容就可以被自动替换为插件所识别并替换的文本。 4. 用户自定义替换列表: 插件允许用户访问选项页面来自定义替换列表,这意味着用户可以根据自己的喜好添加、删除或修改替换规则。这种灵活性使得XKCD Substitutions 3成为一个高度个性化的工具,用户可以根据个人兴趣和阅读习惯来调整插件的行为。 5. 替换样式与用户体验: 插件提供了多种文本替换样式,包括无提示替换、带下划线的替换以及高亮显示替换。每种样式都有其特定的用户体验设计。无提示替换适用于不想分散注意力的用户;带下划线的替换和高亮显示替换则更直观地突出显示了被替换的文本,让更改更为明显,适合那些希望追踪替换效果的用户。 6. 黑名单功能: 为了避免在某些网站上无意中干扰网页的原始内容,XKCD Substitutions 3-crx插件提供了黑名单功能。用户可以将特定的域名加入黑名单,防止插件在这些网站上运行替换功能。这样可以保证用户在需要专注阅读的网站上,如工作相关的平台或个人兴趣网站,不会受到插件内容替换的影响。 7. 扩展程序与网络安全: 浏览器扩展程序可能会涉及到用户数据和隐私安全的问题。因此,安装和使用任何第三方扩展程序时,用户都应该确保来源的安全可靠,避免授予不必要的权限。同时,了解扩展程序的权限范围和它如何处理用户数据对于保护个人隐私是至关重要的。 通过这些知识点,可以看出XKCD Substitutions 3-crx插件不仅仅是一个简单的文本替换工具,而是一个结合了个人化定制、交互体验设计以及用户隐私保护的实用型扩展程序。它通过幽默风趣的XKCD漫画内容为用户带来不一样的网络浏览体验。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【强化学习损失函数探索】:奖励函数与损失函数的深入联系及优化策略

![【强化学习损失函数探索】:奖励函数与损失函数的深入联系及优化策略](https://cdn.codeground.org/nsr/images/img/researchareas/ai-article4_02.png) # 1. 强化学习中的损失函数基础 强化学习(Reinforcement Learning, RL)是机器学习领域的一个重要分支,它通过与环境的互动来学习如何在特定任务中做出决策。在强化学习中,损失函数(loss function)起着至关重要的作用,它是学习算法优化的关键所在。损失函数能够衡量智能体(agent)的策略(policy)表现,帮助智能体通过减少损失来改进自