a=tf.nn.sigmoid(tf.matmul(x,w1)+b1)#sigmoid激活函数 y=tf.nn.sigmoid(tf.matmul(a,w2)+b2) mse = tf.reduce_mean(tf.square(y_ - y))#损失函数采用均方误差 #train_step = tf.train.AdamOptimizer(eta).minimize(mse)#Adam算法 train_step = tf.train.GradientDescentOptimizer(eta).minimize(mse)#梯度下降法 哪一步是反向传播误差
时间: 2024-04-28 16:26:28 浏览: 90
TensorFlow tf.nn.softmax_cross_entropy_with_logits的用法
5星 · 资源好评率100%
在这段代码中,反向传播误差是由优化器实现的。在这里,我们可以看到两个优化器:`tf.train.AdamOptimizer()` 和 `tf.train.GradientDescentOptimizer()`。在训练过程中,我们使用 `train_step` 来更新权重参数。在更新权重参数的过程中,优化器会计算出梯度,并根据梯度方向来更新权重参数,这就是反向传播误差的过程。因此,在这段代码中,两个优化器实现的 `train_step` 步骤都包含了反向传播误差的计算。
阅读全文