frame_length, frame_step = frame_size * sample_rate, frame_stride * sample_rate # 从秒转换为采样点 signal_length = len(emphasized_signal) frame_length = int(round(frame_length)) frame_step = int(round(frame_step)) print(frame_length, frame_step ) # 确保我们至少有1帧 num_frames = int(numpy.ceil(float(numpy.abs(signal_length - frame_length)) / frame_step)) print(num_frames) pad_signal_length = num_frames * frame_step + frame_length z = numpy.zeros((pad_signal_length - signal_length)) # 填充信号,确保所有帧的采样数相等,而不从原始信号中截断任何采样 pad_signal = numpy.append(emphasized_signal, z) indices = numpy.tile(numpy.arange(0, frame_length), (num_frames, 1)) + numpy.tile(numpy.arange(0, num_frames * frame_step, frame_step), (frame_length, 1)).T frames = pad_signal[indices.astype(numpy.int32, copy=False)]
时间: 2023-06-15 22:03:17 浏览: 126
这段代码是用来实现语音信号的分帧操作的。分帧是语音信号处理中的一个重要步骤,它将长时间的连续语音信号分割成若干短时窗口内的小段,每一段称为一帧。这样做的好处是可以将语音信号转换为时间序列上的离散点,方便进行后续的分析和处理。
具体来说,这段代码首先通过给定的参数(frame_size、frame_stride和sample_rate)计算出每一帧的长度和帧移。然后根据这些参数,计算出需要分的帧数(num_frames)。接着,对原始信号进行填充,保证所有帧的采样数相等,这里采用的是在信号末尾添加0的方式进行填充。最后,通过tile函数生成一个索引矩阵,将原始信号分成若干帧,每一帧的长度为frame_length,帧移为frame_step。分帧后,得到的每一帧都可以看作是一个离散的时间序列,方便进行后续处理。
相关问题
sample_rate, signal = wav.read('Male_Twenties.wav') pre_emphasis = 0.95 emphasized_signal = numpy.append(signal[0], signal[1:] - pre_emphasis * signal[:-1]) # 对信号进行短时分帧处理 frame_size = 0.025 # 设置帧长 frame_stride = 0.1 # 计算帧对应采样数(frame_length)以及步长对应采样数(frame_step) frame_length, frame_step = frame_size * sample_rate, frame_stride * sample_rate signal_length = len(emphasized_signal) # 信号总采样数 frame_length = int(round(frame_length)) # 帧采样数 frame_step = int(round(frame_step)) # num_frames为总帧数,确保我们至少有一个帧 num_frames = int(np.ceil(float(np.abs(signal_length - frame_length)) / frame_step)) pad_signal_length = num_frames * frame_step + frame_length z = np.zeros((pad_signal_length - signal_length)) # 填充信号以后确保所有的帧的采样数相等 pad_signal = np.append(emphasized_signal, z) indices = np.tile(np.arange(0, frame_length), (num_frames, 1)) + np.tile( np.arange(0, num_frames * frame_step, frame_step), (frame_length, 1)).T frames = pad_signal[indices.astype(np.int32, copy=False)] NFFT = 512 mag_frames = np.absolute(np.fft.rfft(frames, NFFT)) pow_frames = ((1.0 / NFFT) * ((mag_frames) ** 2)) log_pow_frames = logpowspec(pow_frames, NFFT, norm=1) # 保留语音的前3.5秒 # signal=signal[0:int(3.5*sample_rate)] # 信号预加重 # emphasized_signal=preemphasis(signal,coeff=0.95) # 显示信号 plt.plot(mag_frames) plt.title("Mag_Spectrum") plt.plot(emphasized_signal) plt.show() plt.plot(pow_frames) plt.title("Power_Spectrum") plt.show() plt.plot(log_pow_frames) plt.title("Log_Power_Spectrum") plt.show()中的三个图分别如何命名横纵坐标
第一个图应该命名为 "Mag_Spectrum",横坐标为频率,单位为 Hz,纵坐标为幅度,单位为未知。
第二个图应该命名为 "Power_Spectrum",横坐标为频率,单位为 Hz,纵坐标为功率,单位为未知。
第三个图应该命名为 "Log_Power_Spectrum",横坐标为频率,单位为 Hz,纵坐标为对数功率,单位为未知。
def __init__(self): super(MyCNN,self).__init__() self.conv0 = nn.Conv2D(in_channels= 3,out_channels=64, kernel_size=3,stride=1) #output size=222 self.pool0 = nn.MaxPool2D(kernel_size=2,stride=2) #output size=111 self.conv1 = nn.Conv2D(in_channels = 64,out_channels=128,kernel_size=4,stride = 1) #output size=108 self.pool1 = nn.MaxPool2D(kernel_size=2,stride=2) #output size=54 self.conv2 = nn.Conv2D(in_channels= 128,out_channels=50,kernel_size=5) #output size=50 self.pool2 = nn.MaxPool2D(kernel_size=2,stride=2) #output size=25 self.fc1 = nn.Linear(in_features=50*25*25,out_features=25)
这是一个使用PyTorch实现的CNN模型的构造函数。在构造函数中定义了卷积层、池化层和全连接层。其中,conv0、pool0、conv1、pool1、conv2、pool2是卷积层和池化层的实例化对象,分别表示三个卷积层和三个池化层,用于提取输入图像的特征。fc1是全连接层的实例化对象,用于将卷积层提取的特征映射到输出类别上。其中,in_features表示输入特征数,out_features表示输出特征数。
阅读全文