自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有
看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,
自己的理解也会更深,另一方面也方便未来自己的勘察。更好的还可以放到博客上面与大家交流。
因为基础有限,所以对论文的一些理解可能不太正确,还望大家不吝指正交流,谢谢。
本文的论文来自:
!"#$%#&!。
这个主要是 的推导和实现的一些笔记,再看懂这个笔记之前,最好具有 的一些基础。
这里也先列出一个资料供参考:
'()* (深度学习)学习笔记整理系列之(七)
'+(*,-$!"#
'(卷积神经网络
'.("#/0/1")
'-() :三十八 23#
简单介绍 4
'5(6,7
'(879"!"#
':(;<*)* 中的“卷积特征提取”和“池化”。
另外,这里有个 7 的 )*
,里面包含了 的代码,在下一个博文中,
我将会详细注释这个代码。这个笔记对这个代码的理解非常重要。
下面是自己对其中的一些知识点的理解:
《 !"#》
一、介绍
这个文档讨论的是 的推导和实现。 架构的连接比权值要多很多,这实际上就隐含着实
现了某种形式的规则化。这种特别的网络假定了我们希望通过数据驱动的方式学习到一些滤波器,
作为提取输入的特征的一种方法。
本文中,我们先对训练全连接网络的经典 &= 算法做一个描述,然后推导 +) 网络的卷积层
和子采样层的 &= 权值更新方法。在推导过程中,我们更强调实现的效率,所以会给出一些 >
代码。最后,我们转向讨论如何自动地学习组合前一层的特征 7,特别地,我们还学习特征
7 的稀疏组合。
二、全连接的反向传播算法
典型的 中,开始几层都是卷积和下采样的交替,然后在最后一些层(靠近输出层的),都
是全连接的一维网络。这时候我们已经将所有两维 +) 的特征 7 转化为全连接的一维网络的输入。
这样,当你准备好将最终的 +) 特征 7 输入到 ) 网络中时,一个非常方便的方法就是把所有输出
的特征 7 连接成一个长的输入向量。然后我们回到 &= 算法的讨论。(更详细的基础推导可以参
考 ;<*)* 中“反向传导算法”)。
+、</"= 前向传播
在下面的推导中,我们采用平方误差代价函数。我们讨论的是多类问题,共 类,共 个训练
样本。