请解释这段代码d = np.tile(np.arange(0, frame_length), (fn, 1)) + np.tile(np.arange(0, fn * step, step), (frame_length, 1)).T
时间: 2023-10-02 18:04:30 浏览: 97
这段代码使用了NumPy库中的tile函数,它用于将数组沿指定的维度进行重复。具体来说,代码的目的是创建一个二维数组d,其中包含了一系列数字。
首先,通过`np.arange(0, frame_length)`生成了一个长度为frame_length的一维数组,表示从0到frame_length-1的连续整数。
然后,通过`np.tile(np.arange(0, frame_length), (fn, 1))`将这个一维数组沿垂直方向复制fn次,得到一个形状为(fn, frame_length)的二维数组。这个操作通过tile函数的第二个参数`(fn, 1)`来指定。
接下来,通过`np.arange(0, fn * step, step)`生成了另一个一维数组,表示从0开始以步长step递增的一系列数字。
然后,通过`np.tile(np.arange(0, fn * step, step), (frame_length, 1)).T`将这个一维数组沿水平方向复制frame_length次,并通过转置操作`.T`将其变成形状为(frame_length, fn)的二维数组。
最后,将两个二维数组相加,得到最终的二维数组d。每个元素d[i][j]表示第i帧第j个样本点的值。
这段代码通常用于生成音频信号处理中的帧与样本点之间的映射关系。
相关问题
sample_rate, signal = wav.read('Male_Twenties.wav') pre_emphasis = 0.95 emphasized_signal = numpy.append(signal[0], signal[1:] - pre_emphasis * signal[:-1]) # 对信号进行短时分帧处理 frame_size = 0.025 # 设置帧长 frame_stride = 0.1 # 计算帧对应采样数(frame_length)以及步长对应采样数(frame_step) frame_length, frame_step = frame_size * sample_rate, frame_stride * sample_rate signal_length = len(emphasized_signal) # 信号总采样数 frame_length = int(round(frame_length)) # 帧采样数 frame_step = int(round(frame_step)) # num_frames为总帧数,确保我们至少有一个帧 num_frames = int(np.ceil(float(np.abs(signal_length - frame_length)) / frame_step)) pad_signal_length = num_frames * frame_step + frame_length z = np.zeros((pad_signal_length - signal_length)) # 填充信号以后确保所有的帧的采样数相等 pad_signal = np.append(emphasized_signal, z) indices = np.tile(np.arange(0, frame_length), (num_frames, 1)) + np.tile( np.arange(0, num_frames * frame_step, frame_step), (frame_length, 1)).T frames = pad_signal[indices.astype(np.int32, copy=False)] NFFT = 512 mag_frames = np.absolute(np.fft.rfft(frames, NFFT)) pow_frames = ((1.0 / NFFT) * ((mag_frames) ** 2)) log_pow_frames = logpowspec(pow_frames, NFFT, norm=1) # 保留语音的前3.5秒 # signal=signal[0:int(3.5*sample_rate)] # 信号预加重 # emphasized_signal=preemphasis(signal,coeff=0.95) # 显示信号 plt.plot(mag_frames) plt.title("Mag_Spectrum") plt.plot(emphasized_signal) plt.show() plt.plot(pow_frames) plt.title("Power_Spectrum") plt.show() plt.plot(log_pow_frames) plt.title("Log_Power_Spectrum") plt.show()中的三个图分别如何命名横纵坐标
第一个图应该命名为 "Mag_Spectrum",横坐标为频率,单位为 Hz,纵坐标为幅度,单位为未知。
第二个图应该命名为 "Power_Spectrum",横坐标为频率,单位为 Hz,纵坐标为功率,单位为未知。
第三个图应该命名为 "Log_Power_Spectrum",横坐标为频率,单位为 Hz,纵坐标为对数功率,单位为未知。
frame_length, frame_step = frame_size * sample_rate, frame_stride * sample_rate # 从秒转换为采样点 signal_length = len(emphasized_signal) frame_length = int(round(frame_length)) frame_step = int(round(frame_step)) print(frame_length, frame_step ) # 确保我们至少有1帧 num_frames = int(numpy.ceil(float(numpy.abs(signal_length - frame_length)) / frame_step)) print(num_frames) pad_signal_length = num_frames * frame_step + frame_length z = numpy.zeros((pad_signal_length - signal_length)) # 填充信号,确保所有帧的采样数相等,而不从原始信号中截断任何采样 pad_signal = numpy.append(emphasized_signal, z) indices = numpy.tile(numpy.arange(0, frame_length), (num_frames, 1)) + numpy.tile(numpy.arange(0, num_frames * frame_step, frame_step), (frame_length, 1)).T frames = pad_signal[indices.astype(numpy.int32, copy=False)]
这段代码是用来实现语音信号的分帧操作的。分帧是语音信号处理中的一个重要步骤,它将长时间的连续语音信号分割成若干短时窗口内的小段,每一段称为一帧。这样做的好处是可以将语音信号转换为时间序列上的离散点,方便进行后续的分析和处理。
具体来说,这段代码首先通过给定的参数(frame_size、frame_stride和sample_rate)计算出每一帧的长度和帧移。然后根据这些参数,计算出需要分的帧数(num_frames)。接着,对原始信号进行填充,保证所有帧的采样数相等,这里采用的是在信号末尾添加0的方式进行填充。最后,通过tile函数生成一个索引矩阵,将原始信号分成若干帧,每一帧的长度为frame_length,帧移为frame_step。分帧后,得到的每一帧都可以看作是一个离散的时间序列,方便进行后续处理。
阅读全文