$$\text{output} = \text{input} + \mathcal{F}(\text{input})$$
时间: 2023-11-01 10:39:59 浏览: 18
这是一个常见的深度学习模型中的残差连接(Residual Connection)的形式,其中 $\text{input}$ 表示输入,$\mathcal{F}(\text{input})$ 表示一些非线性变换(比如卷积、全连接等),$\text{output}$ 表示输出。残差连接的目的是解决深度神经网络中的梯度消失问题,它能够让梯度在反向传播时更好地传播到较浅的层,从而提高模型的训练效果。
相关问题
1. Let a zero-mean white noise with variance $\sigma_x^2$ pass a linear system with transfer function $H(z)$ given by $$ H(z)=\frac{1}{1-a z^{-1}} \quad 0<a<1 $$ Please determine the output variance $\sigma_y^2$. What is $\frac{\sigma_y^2}{\sigma_x^2}$ ?这道题中文具体解题步骤
设输入信号为 $x[n]$,输出信号为 $y[n]$,则有$$
y[n]=\sum_{k=-\infty}^{\infty}h[k]x[n-k],
$$其中,$h[k]$ 为系统的单位脉冲响应,即$$
h[n]=\mathcal{Z}^{-1}\{H(z)\}a^n u[n],
$$其中,$\mathcal{Z}^{-1}$ 表示反 $\mathcal{Z}$ 变换,$u[n]$ 表示单位阶跃函数。
对于本题,系统的单位脉冲响应为$$
h[n]=\mathcal{Z}^{-1}\left\{\frac{1}{1-a z^{-1}}\right\}a^n u[n]=a^nu[n]-a^{n+1}u[n+1],
$$则输出信号为$$
y[n]=\sum_{k=-\infty}^{\infty}h[k]x[n-k]=\sum_{k=-\infty}^{\infty}(a^ku[n]-a^{k+1}u[n+1])x[n-k].
$$
由于 $x[n]$ 是白噪声,且均值为 $0$,方差为 $\sigma_x^2$,因此$$
\begin{aligned}
E\{y[n]\}&=\sum_{k=-\infty}^{\infty}(a^ku[n]-a^{k+1}u[n+1])E\{x[n-k]\}=0,\\
E\{y^2[n]\}&=\sum_{k=-\infty}^{\infty}(a^ku[n]-a^{k+1}u[n+1])^2 E\{x^2[n-k]\}\\
&=\sigma_x^2\sum_{k=-\infty}^{\infty}(a^ku[n]-a^{k+1}u[n+1])^2\\
&=\sigma_x^2\left(\sum_{k=-\infty}^{\infty}a^{2k}+\sum_{k=-\infty}^{\infty}a^{2(k+1)}-2\sum_{k=-\infty}^{\infty}a^{k(k+1)}\right)\\
&=\frac{\sigma_x^2}{1-a^2}.
\end{aligned}
$$
因此,输出信号的方差为$$
\sigma_y^2=\frac{\sigma_x^2}{1-a^2},
$$输入输出信号的功率比为$$
\frac{\sigma_y^2}{\sigma_x^2}=\frac{1}{1-a^2}.
$$
$H(\omega) = \frac{i(\omega)}{i_{in}(\omega)} = \frac{Z_{in}}{Z_{in}+Z_{f}}$使用拉普拉斯反变换的结果
由于 $H(\omega)$ 是一个复数函数,我们需要分别反变换其实部和虚部。
首先,我们求出 $H(s)$,将复频域变换为复时域。假设输入信号为 $i_{in}(t)$,输出信号为 $i(t)$,则有:
$$H(s) = \frac{i(s)}{i_{in}(s)} = \frac{Z_{in}}{Z_{in}+Z_{f}}$$
对 $H(s)$ 进行拉普拉斯反变换,得到:
$$i(t) = \mathcal{L}^{-1}\{ H(s) i_{in}(s) \} = \mathcal{L}^{-1}\left\{ \frac{Z_{in}}{Z_{in} + Z_f} i_{in}(s) \right\}$$
接下来,我们需要将 $H(s)$ 拆分成实部和虚部:
$$H(s) = \frac{Z_{in}}{Z_{in}+Z_{f}} = \frac{Z_{in}}{Z_{in}+Z_{f}} \cdot \frac{Z_{in}-Z_{f}}{Z_{in}-Z_{f}} = \frac{Z_{in}^2-Z_{f}^2}{(Z_{in}+Z_{f})^2} + j\frac{2Z_{in}Z_{f}}{(Z_{in}+Z_{f})^2}$$
然后,我们分别对实部和虚部进行拉普拉斯反变换:
$$i_1(t) = \mathcal{L}^{-1}\left\{ \frac{Z_{in}^2-Z_{f}^2}{(Z_{in}+Z_{f})^2} i_{in}(s) \right\}$$
$$i_2(t) = \mathcal{L}^{-1}\left\{ \frac{2Z_{in}Z_{f}}{(Z_{in}+Z_{f})^2} i_{in}(s) \right\}$$
因此,$i(t)$ 的拉普拉斯反变换为:
$$i(t) = i_1(t) + j i_2(t)$$
其中,$i_1(t)$ 和 $i_2(t)$ 分别是实部和虚部的反变换。
相关推荐
![](https://img-home.csdnimg.cn/images/20210720083646.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)