以下这段代码的反向传播代码是啥 xs[t] = one_hot_encode_sequence(inputs[t:t+use_len], vocab_size).reshape(-1, 1) ats[t] = np.tanh(np.dot(U, xs[t]) + np.dot(W, ats[t-1]) + s1) bts[t] = np.tanh(np.dot(V, ats[t]) + np.dot(R, ats[t-1]) + np.dot(T, bts[t-1]) + s2) ots[t] = np.dot(Q, bts[t]) + s3 pts[t] = np.exp(ots[t]) / np.sum(np.exp(ots[t])) # 交叉熵计算loss函数 y_class = one_hot_encode_sequence(targets[t:t+use_len], vocab_size).reshape(-1, 1) loss += np.sum(y_class*(-np.log(ps[t]))) # softmax (cross-entropy loss)
时间: 2024-01-31 22:03:25 浏览: 404
反向传播:代码演示篇
5星 · 资源好评率100%
以下是该代码段的反向传播代码:
```
dQ = np.zeros_like(Q)
ds3 = np.zeros_like(s3)
dT = np.zeros_like(T)
dR = np.zeros_like(R)
dV = np.zeros_like(V)
ds1 = np.zeros_like(s1)
dU = np.zeros_like(U)
dats_next = np.zeros_like(ats[0])
dbts_next = np.zeros_like(bts[0])
dats = np.zeros_like(ats)
dbts = np.zeros_like(bts)
dxs = np.zeros_like(xs)
for t in reversed(range(len(inputs))):
dy = np.copy(pts[t])
dy[targets[t]] -= 1
dQ += np.dot(dy, bts[t].T)
ds3 += dy
dbts[t] = np.dot(Q.T, dy) + dbts_next
dV += np.dot(dbts[t], ats[t].T)
dR += np.dot(dbts[t], ats[t-1].T)
dT += np.dot(dbts[t], bts[t-1].T)
ds2 = np.dot(V.T, dbts[t]) * (1 - np.square(bts[t]))
dU += np.dot(ds2, xs[t].T)
dats[t-1] = np.dot(W.T, ds2) + dats_next
ds1 += np.dot(W.T, ds2)
dxs[t] = np.dot(U.T, ds2)
dats_next = ds1
dbts_next = ds2
# 梯度修剪
for dparam in [dU, dV, dR, dT, dW, dQ]:
np.clip(dparam, -5, 5, out=dparam)
```
其中,`dQ`、`ds3`、`dT`、`dR`、`dV`、`ds1`、`dU`、`dats_next`、`dbts_next`、`dats`、`dbts`、`dxs`分别表示相应参数的梯度,每个变量的维度与对应参数相同。该代码利用反向传播算法,从最后一个时间步开始,逐步计算每个时间步的梯度,并将它们累加到相应参数的梯度中。在计算过程中,利用了链式法则和梯度传递的思想。最后,使用梯度修剪来防止梯度爆炸。
阅读全文