frame_length, frame_step = frame_size * sample_rate, frame_stride * sample_rate # 从秒转换为采样点 signal_length = len(emphasized_signal) frame_length = int(round(frame_length)) frame_step = int(round(frame_step)) print(frame_length, frame_step ) # 确保我们至少有1帧 num_frames = int(numpy.ceil(float(numpy.abs(signal_length - frame_length)) / frame_step)) print(num_frames) pad_signal_length = num_frames * frame_step + frame_length z = numpy.zeros((pad_signal_length - signal_length)) # 填充信号,确保所有帧的采样数相等,而不从原始信号中截断任何采样 pad_signal = numpy.append(emphasized_signal, z) indices = numpy.tile(numpy.arange(0, frame_length), (num_frames, 1)) + numpy.tile(numpy.arange(0, num_frames * frame_step, frame_step), (frame_length, 1)).T frames = pad_signal[indices.astype(numpy.int32, copy=False)]
时间: 2023-06-15 18:03:17 浏览: 82
这段代码是用来实现语音信号的分帧操作的。分帧是语音信号处理中的一个重要步骤,它将长时间的连续语音信号分割成若干短时窗口内的小段,每一段称为一帧。这样做的好处是可以将语音信号转换为时间序列上的离散点,方便进行后续的分析和处理。
具体来说,这段代码首先通过给定的参数(frame_size、frame_stride和sample_rate)计算出每一帧的长度和帧移。然后根据这些参数,计算出需要分的帧数(num_frames)。接着,对原始信号进行填充,保证所有帧的采样数相等,这里采用的是在信号末尾添加0的方式进行填充。最后,通过tile函数生成一个索引矩阵,将原始信号分成若干帧,每一帧的长度为frame_length,帧移为frame_step。分帧后,得到的每一帧都可以看作是一个离散的时间序列,方便进行后续处理。
相关问题
sample_rate, signal = wav.read('Male_Twenties.wav') pre_emphasis = 0.95 emphasized_signal = numpy.append(signal[0], signal[1:] - pre_emphasis * signal[:-1]) # 对信号进行短时分帧处理 frame_size = 0.025 # 设置帧长 frame_stride = 0.1 # 计算帧对应采样数(frame_length)以及步长对应采样数(frame_step) frame_length, frame_step = frame_size * sample_rate, frame_stride * sample_rate signal_length = len(emphasized_signal) # 信号总采样数 frame_length = int(round(frame_length)) # 帧采样数 frame_step = int(round(frame_step)) # num_frames为总帧数,确保我们至少有一个帧 num_frames = int(np.ceil(float(np.abs(signal_length - frame_length)) / frame_step)) pad_signal_length = num_frames * frame_step + frame_length z = np.zeros((pad_signal_length - signal_length)) # 填充信号以后确保所有的帧的采样数相等 pad_signal = np.append(emphasized_signal, z) indices = np.tile(np.arange(0, frame_length), (num_frames, 1)) + np.tile( np.arange(0, num_frames * frame_step, frame_step), (frame_length, 1)).T frames = pad_signal[indices.astype(np.int32, copy=False)] NFFT = 512 mag_frames = np.absolute(np.fft.rfft(frames, NFFT)) pow_frames = ((1.0 / NFFT) * ((mag_frames) ** 2)) log_pow_frames = logpowspec(pow_frames, NFFT, norm=1) # 保留语音的前3.5秒 # signal=signal[0:int(3.5*sample_rate)] # 信号预加重 # emphasized_signal=preemphasis(signal,coeff=0.95) # 显示信号 plt.plot(mag_frames) plt.title("Mag_Spectrum") plt.plot(emphasized_signal) plt.show() plt.plot(pow_frames) plt.title("Power_Spectrum") plt.show() plt.plot(log_pow_frames) plt.title("Log_Power_Spectrum") plt.show()中的三个图分别如何命名横纵坐标
第一个图应该命名为 "Mag_Spectrum",横坐标为频率,单位为 Hz,纵坐标为幅度,单位为未知。
第二个图应该命名为 "Power_Spectrum",横坐标为频率,单位为 Hz,纵坐标为功率,单位为未知。
第三个图应该命名为 "Log_Power_Spectrum",横坐标为频率,单位为 Hz,纵坐标为对数功率,单位为未知。
undefined reference to `mpp_frame_get_hor_stride_pixel'
这个错误通常是由于链接器无法找到与该函数对应的库文件而导致的。这可能是因为您没有正确地链接所需的库文件。
您可以尝试使用以下方法解决此问题:
1. 确认您的代码中包含了正确的头文件,并且已经将库文件添加到了链接器中。
2. 确认您的库文件是否与您的编译器和操作系统版本兼容。
3. 尝试使用 -l 参数将库文件链接到您的代码中。例如,如果您的库文件名为 libmpp.a,则可以使用以下命令链接它:
gcc your_code.c -o your_program -lmpp
4. 如果您使用的是 CMake 进行编译,您可以在 CMakeLists.txt 文件中添加以下语句:
target_link_libraries(your_target_name mpp)
其中,your_target_name 是您的目标文件名,mpp 是您需要链接的库文件名。
希望这些方法能够帮助您解决问题。