没有合适的资源?快使用搜索试试~ 我知道了~
首页Tensorflow中的dropout的使用方法
Tensorflow中的dropout的使用方法
2.3k 浏览量
更新于2023-05-30
评论
收藏 56KB PDF 举报
主要介绍了Tensorflow中的dropout的使用方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
资源详情
资源评论
资源推荐

Tensorflow中的中的dropout的使用方法的使用方法
主要介绍了Tensorflow中的dropout的使用方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具
有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
Hinton在论文《Improving neural networks by preventing co-adaptation of feature detectors》中提出了Dropout。Dropout用
来防止神经网络的过拟合。Tensorflow中可以通过如下3中方式实现dropout。
tf.nn.dropout
def dropout(x, keep_prob, noise_shape=None, seed=None, name=None):
其中,x为浮点类型的tensor,keep_prob为浮点类型的scalar,范围在(0,1]之间,表示x中的元素被保留下来的概
率,noise_shape为一维的tensor(int32类型),表示标记张量的形状(representing the shape for randomly generated
keep/drop flags),并且noise_shape指定的形状必须对x的形状是可广播的。如果x的形状是[k, l, m, n],并且noise_shape为
[k, l, m, n],那么x中的每一个元素是否保留都是独立,但如果x的形状是[k, l, m, n],并且noise_shape为[k, 1, 1, n],则x中的
元素沿着第0个维度第3个维度以相互独立的概率保留或者丢弃,而元素沿着第1个维度和第2个维度要么同时保留,要么同时
丢弃。
关于Tensorflow中的广播机制,可以参考《TensorFlow 和 NumPy 的 Broadcasting 机制探秘》
最终,会输出一个与x形状相同的张量ret,如果x中的元素被丢弃,则在ret中的对应位置元素为0,如果x中的元素被保留,则
在ret中对应位置上的值为 ,这么做是为了使得ret中的元素之和等于x中的元素之和。
tf.layers.dropout
def dropout(inputs,
rate=0.5,
noise_shape=None,
seed=None,
training=False,
name=None):
参数inputs为输入的张量,与tf.nn.dropout的参数keep_prob不同,rate指定元素被丢弃的概率,如果rate=0.1,则inputs中
10%的元素将被丢弃,noise_shape与tf.nn.dropout的noise_shape一致,training参数用来指示当前阶段是出于训练阶段还是
测试阶段,如果training为true(即训练阶段),则会进行dropout,否则不进行dropout,直接返回inputs。
自定义稀疏张量的自定义稀疏张量的dropout
上述的两种方法都是针对dense tensor的dropout,但有的时候,输入可能是稀疏张量,仿照tf.nn.dropout和tf.layers.dropout的
内部实现原理,自定义稀疏张量的dropout。
def sparse_dropout(x, keep_prob, noise_shape):
keep_tensor = keep_prob + tf.random_uniform(noise_shape)
drop_mask = tf.cast(tf.floor(keep_tensor), dtype=tf.bool)
out = tf.sparse_retain(x, drop_mask)
return out * (1.0/keep_prob)
其中,参数x和keep_prob与tf.nn.dropout一致,noise_shape为x中非空元素的个数,如果x中有4个非空值,则noise_shape为
[4],keep_tensor的元素为[keep_prob, 1.0 + keep_prob)的均匀分布,通过tf.floor向下取整得到标记张量
drop_mask,tf.sparse_retain用于在一个 SparseTensor 中保留指定的非空值。
案例
def nn_dropout(x, keep_prob, noise_shape):
out = tf.nn.dropout(x, keep_prob, noise_shape)
return out
def layers_dropout(x, keep_prob, noise_shape, training=False):
out = tf.layers.dropout(x, keep_prob, noise_shape, training=training)
return out
def sparse_dropout(x, keep_prob, noise_shape):
keep_tensor = keep_prob + tf.random_uniform(noise_shape)
drop_mask = tf.cast(tf.floor(keep_tensor), dtype=tf.bool)
out = tf.sparse_retain(x, drop_mask)
return out * (1.0/keep_prob)
if __name__ == '__main__':
inputs1 = tf.SparseTensor(indices=[[0, 0], [0, 2], [1, 1], [1, 2]], values=[1.0, 2.0, 3.0, 4.0], dense_shape=[2, 3])



















安全验证
文档复制为VIP权益,开通VIP直接复制

评论0