人工智能语音识别python代码

时间: 2024-12-10 17:14:23 浏览: 17
以下是从提供的《实验指导.docx》文档中提炼出来的关于人工智能语音识别的Python代码概要: ### 1. 解压数据集 ```python !unzip -q data/data300576/recordings.zip -d wc_work ``` ### 2. 切分数据集 ```python import os import random # 获取所有音频文件路径 recordings = ['recordings/' + name for name in os.listdir('work/recordings')] total = [] # 遍历每个音频文件路径,提取标签 for recording in recordings: label = int(recording[11]) total.append(f'{recording}\t{label}') # 创建训练集、验证集和测试集文件 train = open('work/train.tsv', 'w', encoding='UTF-8') dev = open('work/dev.tsv', 'w', encoding='UTF-8') test = open('work/test.tsv', 'w', encoding='UTF-8') # 打乱数据顺序 random.shuffle(total) # 确定数据集划分的索引 split_num = int((len(total) - 100) * 0.9) # 写入训练集数据 for line in total[:split_num]: train.write(line) # 写入验证集数据 for line in total[split_num:-100]: dev.write(line) # 写入测试集数据 for line in total[-100:]: test.write(line) # 关闭文件 train.close() dev.close() test.close() ``` ### 3. 音频数据预处理 ```python import random import numpy as np import scipy.io.wavfile as wav from python_speech_features import mfcc, delta def get_mfcc(data, fs): # 提取MFCC特征 wav_feature = mfcc(data, fs) # 计算一阶差分 d_mfcc_feat = delta(wav_feature, 1) # 计算二阶差分 d_mfcc_feat2 = delta(wav_feature, 2) # 拼接特征 feature = np.concatenate([ wav_feature.reshape(1, -1, 13), d_mfcc_feat.reshape(1, -1, 13), d_mfcc_feat2.reshape(1, -1, 13) ], axis=0) # 统一时间维度 if feature.shape[1] > 64: feature = feature[:, :64, :] else: feature = np.pad(feature, ((0, 0), (0, 64 - feature.shape[1]), (0, 0)), 'constant') # 调整数据维度 feature = feature.transpose((2, 0, 1)) feature = feature[np.newaxis, :] return feature def loader(tsv): datas = [] with open(tsv, 'r', encoding='UTF-8') as f: for line in f: audio, label = line.strip().split('\t') fs, signal = wav.read('work/' + audio) feature = get_mfcc(signal, fs) datas.append([feature, int(label)]) return datas def reader(datas, batch_size, is_random=True): features = [] labels = [] if is_random: random.shuffle(datas) for data in datas: feature, label = data features.append(feature) labels.append(label) if len(labels) == batch_size: features = np.concatenate(features, axis=0).reshape(-1, 13, 3, 64).astype('float32') labels = np.array(labels).reshape(-1, 1).astype('int64') yield features, labels features = [] labels = [] ``` ### 4. 模型搭建 ```python import paddle.fluid as fluid from paddle.fluid.dygraph import Linear, Conv2D, BatchNorm from paddle.fluid.layers import softmax_with_cross_entropy, accuracy, reshape class Audio(fluid.dygraph.Layer): def __init__(self): super(Audio, self).__init__() self.conv1 = Conv2D(13, 16, 3, 1, 1) self.conv2 = Conv2D(16, 16, (3, 2), (1, 2), (1, 0)) self.conv3 = Conv2D(16, 32, 3, 1, 1) self.conv4 = Conv2D(32, 32, (3, 2), (1, 2), (1, 0)) self.conv5 = Conv2D(32, 64, 3, 1, 1) self.conv6 = Conv2D(64, 64, (3, 2), 2) self.fc1 = Linear(8 * 64, 128) self.fc2 = Linear(128, 10) def forward(self, inputs, labels=None): out = self.conv1(inputs) out = self.conv2(out) out = self.conv3(out) out = self.conv4(out) out = self.conv5(out) out = self.conv6(out) out = reshape(out, [-1, 8 * 64]) out = self.fc1(out) out = self.fc2(out) if labels is not None: loss = softmax_with_cross_entropy(out, labels) acc = accuracy(out, labels) return loss, acc else: return out ``` ### 5. 查看网络结构 ```python import paddle audio_network = Audio() paddle.summary(audio_network, input_size=[(64, 13, 3, 64)], dtypes=['float32']) ``` ### 6. 模型训练 ```python import numpy as np import paddle.fluid as fluid from visualdl import LogWriter from paddle.fluid.optimizer import Adam from paddle.fluid.dygraph import to_variable, save_dygraph writer = LogWriter(logdir="./log/train") train_datas = loader('work/train.tsv') dev_datas = loader('work/dev.tsv') place = fluid.CPUPlace() epochs = 10 with fluid.dygraph.guard(place): model = Audio() optimizer = Adam(learning_rate=0.001, parameter_list=model.parameters()) global_step = 0 max_acc = 0 for epoch in range(epochs): model.train() train_reader = reader(train_datas, batch_size=64) for step, data in enumerate(train_reader): signal, label = [to_variable(_) for _ in data] loss, acc = model(signal, label) if step % 20 == 0: print(f'train epoch: {epoch} step: {step}, loss: {loss.numpy().mean()}, acc: {acc.numpy()}') writer.add_scalar(tag='train_loss', step=global_step, value=loss.numpy().mean()) writer.add_scalar(tag='train_acc', step=global_step, value=acc.numpy()) global_step += 1 loss.backward() optimizer.minimize(loss) model.clear_gradients() model.eval() dev_reader = reader(dev_datas, batch_size=64, is_random=False) accs = [] losses = [] for data in dev_reader: signal, label = [to_variable(_) for _ in data] loss, acc = model(signal, label) losses.append(loss.numpy().mean()) accs.append(acc.numpy()) avg_acc = np.array(accs).mean() avg_loss = np.array(losses).mean() if avg_acc > max_acc: max_acc = avg_acc print(f'the best accuracy: {max_acc}') print('saving the best model') save_dygraph(optimizer.state_dict(), 'best_model') save_dygraph(model.state_dict(), 'best_model') print(f'dev epoch: {epoch}, loss: {avg_loss}, acc: {avg_acc}') writer.add_scalar(tag='dev_loss', step=epoch, value=avg_loss) writer.add_scalar(tag='dev_acc', step=epoch, value=avg_acc) print(f'the best accuracy: {max_acc}') print('saving the final model') save_dygraph(optimizer.state_dict(), 'final_model') save_dygraph(model.state_dict(), 'final_model') ``` ### 7. 模型测试 ```python import os import numpy as np import paddle.fluid as fluid from paddle.fluid.dygraph import to_variable, load_dygraph test_datas = loader('work/test.tsv') print(f'{len(test_datas)} data in test set') with fluid.dygraph.guard(fluid.CPUPlace()): model = Audio() model.eval() params_dict, _ = load_dygraph('best_model') model.set_dict(params_dict) test_reader = reader(test_datas, batch_size=100, is_random=False) accs = [] for data in test_reader: signal, label = [to_variable(_) for _ in data] _, acc = model(signal, label) accs.append(acc.numpy()) avg_acc = np.array(accs).mean() print(f'test acc: {avg_acc}') ``` ### 8. 用训练好的模型识别语音 ```python import numpy as np import webrtcvad import paddle.fluid as fluid from paddle.fluid.dygraph import to_variable, load_dygraph def vad(file_path, mode=3): samp_rate, signal_data = wav.read(file_path) vad = webrtcvad.Vad(mode=mode) signal = np.pad(signal_data, (0, 160 - (signal_data.shape[0] % int(samp_rate * 0.02))), 'constant') lens = signal.shape[0] signals = np.split(signal, lens // int(samp_rate * 0.02)) audio = [] audios = [] for signal_item in signals: if vad.is_speech(signal_item.tobytes(), samp_rate): audio.append(signal_item) elif len(audio) > 0 and not vad.is_speech(signal_item.tobytes(), samp_rate): audios.append(np.concatenate(audio, 0)) audio = [] return audios, samp_rate audios, samp_rate = vad('data/audio.wav') features = [] for audio in audios: feature = get_mfcc(audio, samp_rate) features.append(feature) features = np.concatenate(features, 0).astype('float32') with fluid.dygraph.guard(place=fluid.CPUPlace()): model = Audio() params_dict, _ = load_dygraph('final_model') model.set_dict(params_dict) model.eval() features = to_variable(features) out = model(features) result = ' '.join([str(num) for num in np.argmax(out.numpy(), 1).tolist()]) print(f'语音数字的识别结果是:{result}') ``` 以上代码涵盖了从数据准备、预处理、模型构建、训练、测试到实际应用的完整流程。希望这些代码对你有所帮助!
阅读全文

相关推荐

最新推荐

recommend-type

Python语言实现百度语音识别API的使用实例

在本文中,我们将深入探讨如何使用Python语言实现百度语音识别API。百度语音识别API是一个强大的工具,它允许开发者将语音转换为文本,从而在各种应用中实现自然语言处理功能。Python作为一门广泛应用于人工智能领域...
recommend-type

Python基于百度AI实现OCR文字识别

百度AI提供了多种人工智能服务,包括人脸识别、语音识别以及我们关注的文字识别,这些服务对个人用户通常是免费且充足的。 首先,为了使用百度AI的OCR服务,你需要在百度AI开放平台上注册并获取APP_ID、API_KEY和...
recommend-type

Python3从零开始搭建一个语音对话机器人的实现

在Python3中构建一个语音对话机器人涉及多个步骤和技术,主要包括语音识别、自然语言处理和文本转语音。以下是一个详细的实现过程: ### 01 - 初心缘由 语音识别技术的发展,尤其是基于深度学习的RNN(循环神经...
recommend-type

使用python实现语音文件的特征提取方法

首先,我们要了解语音识别在当前人工智能领域的关键地位,以及它背后的机器学习和深度学习技术,如RNN(循环神经网络)、LSTM(长短时记忆网络)和DNN-HMM(深度神经网络与隐马尔可夫模型)。这些模型的训练依赖于对...
recommend-type

dnSpy-net-win32-222.zip

dnSpy-net-win32-222.zip
recommend-type

GitHub图片浏览插件:直观展示代码中的图像

资源摘要信息: "ImagesOnGitHub-crx插件" 知识点概述: 1. 插件功能与用途 2. 插件使用环境与限制 3. 插件的工作原理 4. 插件的用户交互设计 5. 插件的图标和版权问题 6. 插件的兼容性 1. 插件功能与用途 插件"ImagesOnGitHub-crx"设计用于增强GitHub这一开源代码托管平台的用户体验。在GitHub上,用户可以浏览众多的代码仓库和项目,但GitHub默认情况下在浏览代码仓库时,并不直接显示图像文件内容,而是提供一个“查看原始文件”的链接。这使得用户体验受到一定限制,特别是对于那些希望直接在网页上预览图像的用户来说不够方便。该插件正是为了解决这一问题,允许用户在浏览GitHub上的图像文件时,无需点击链接即可直接在当前页面查看图像,从而提供更为流畅和直观的浏览体验。 2. 插件使用环境与限制 该插件是专为使用GitHub的用户提供便利的。它能够在GitHub的代码仓库页面上发挥作用,当用户访问的是图像文件页面时。值得注意的是,该插件目前只支持".png"格式的图像文件,对于其他格式如.jpg、.gif等并不支持。用户在使用前需了解这一限制,以免在期望查看其他格式文件时遇到不便。 3. 插件的工作原理 "ImagesOnGitHub-crx"插件的工作原理主要依赖于浏览器的扩展机制。插件安装后,会监控用户在GitHub上的操作。当用户访问到图像文件对应的页面时,插件会通过JavaScript检测页面中的图像文件类型,并判断是否为支持的.png格式。如果是,它会在浏览器地址栏的图标位置上显示一个小octocat图标,用户点击这个图标即可触发插件功能,直接在当前页面上查看到图像。这一功能的实现,使得用户无需离开当前页面即可预览图像内容。 4. 插件的用户交互设计 插件的用户交互设计体现了用户体验的重要性。插件通过在地址栏中增加一个小octocat图标来提示用户当前页面有图像文件可用,这是一种直观的视觉提示。用户通过简单的点击操作即可触发查看图像的功能,流程简单直观,减少了用户的学习成本和操作步骤。 5. 插件的图标和版权问题 由于插件设计者在制作图标方面经验不足,因此暂时借用了GitHub的标志作为插件图标。插件的作者明确表示,如果存在任何错误或版权问题,将会进行更改。这体现了开发者对知识产权尊重的态度,同时也提醒了其他开发者在使用或设计相关图标时应当考虑到版权法律的约束,避免侵犯他人的知识产权。 6. 插件的兼容性 插件的兼容性是评估其可用性的重要标准之一。由于插件是为Chrome浏览器的用户所设计,因此它使用了Chrome扩展程序的标准格式,即.crx文件。用户需要通过浏览器的扩展程序管理界面进行安装。尽管目前插件仅支持.png图像格式,但对于希望在GitHub上浏览.png图像文件的用户来说,已经提供了非常实用的功能。未来,若开发者计划拓展插件支持的文件格式或适用于其他浏览器,则需要考虑到对现有代码的扩展和兼容性测试。 总结: "ImagesOnGitHub-crx"插件通过创新的用户体验设计,解决了GitHub在浏览图像文件时的一些局限性,使得图像浏览更加直观和便捷。尽管目前该插件存在一些限制,如仅支持.png格式和仅在Chrome浏览器中可用,但它为用户和开发者提供了良好的思路和实践。对于希望提高效率和增强功能的用户来说,这类工具扩展了GitHub的实用性,是开发人员工具箱中的一个有益补充。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【OPPO手机故障诊断专家】:工程指令快速定位与解决

![【OPPO手机故障诊断专家】:工程指令快速定位与解决](https://www.consumerelectronicstestdevelopment.com/media/2hlomnxy/oppo.jpg?anchor=center&mode=crop&width=1002&height=564&bgcolor=White&rnd=132773815380200000) # 摘要 本文综述了OPPO手机故障诊断的技术细节,涵盖了工程指令的基础理论、实践应用、高级技巧以及未来发展方向。首先介绍了工程指令的定义、分类、执行环境及其与手机系统交互的重要性。随后,深入探讨了工程指令在初步故障诊断
recommend-type

求[100,900]之间相差为12的素数对(注:要求素数对的两个素数均在该范围内)的个数

求解 [100, 900] 范围内相差为 12 的素数对,首先我们需要确定哪些数在这个区间内是素数。然后筛选出它们成对出现且差值为 12 的情况。 1. 确定素数范围内的素数:我们可以编写一个简单的程序来检查每个数字是否为素数,如果数字大于 1,并且除 2 到其平方根之间的所有整数都不能整除它,那么这个数字就是素数。 2. 遍历并寻找符合条件的素数对:从较大的素数开始向下遍历,找到的第一个素数作为“较大”素数,然后查看比它小 12 的下一个数,如果这个数也是素数,则找到了一对符合条件的素数。 3. 统计素数对的数量:统计在给定范围内找到的这种差距为 12 的素数对的数量。 由于计算素数
recommend-type

Android IPTV项目:直播频道的实时流媒体实现

资源摘要信息:"IPTV:直播IPTV的Android项目是一个基于Android平台的实时流式传输应用。该项目允许用户从M3U8或M3U格式的链接或文件中获取频道信息,并将这些频道以网格或列表的形式展示。用户可以在应用内选择并播放指定的频道。该项目的频道列表是从一个预设的列表中加载的,并且通过解析M3U或M3U8格式的文件来显示频道信息。开发者还计划未来更新中加入Exo播放器以及电子节目单功能,以增强用户体验。此项目使用了多种技术栈,包括Java、Kotlin以及Kotlin Android扩展。" 知识点详细说明: 1. IPTV技术: IPTV(Internet Protocol Television)即通过互联网协议提供的电视服务。它与传统的模拟或数字电视信号传输方式不同,IPTV通过互联网将电视内容以数据包的形式发送给用户。这种服务使得用户可以按需观看电视节目,包括直播频道、视频点播(VOD)、时移电视(Time-shifted TV)等。 2. Android开发: 该项目是针对Android平台的应用程序开发,涉及到使用Android SDK(软件开发工具包)进行应用设计和功能实现。Android应用开发通常使用Java或Kotlin语言,而本项目还特别使用了Kotlin Android扩展(Kotlin-Android)来优化开发流程。 3. 实时流式传输: 实时流式传输是指媒体内容以连续的流形式进行传输的技术。在IPTV应用中,实时流式传输保证了用户能够及时获得频道内容。该项目可能使用了HTTP、RTSP或其他流媒体协议来实现视频流的实时传输。 4. M3U/M3U8文件格式: M3U(Moving Picture Experts Group Audio Layer 3 Uniform Resource Locator)是一种常用于保存播放列表的文件格式。M3U8则是M3U格式的扩展版本,支持UTF-8编码,常用于苹果设备。在本项目中,M3U/M3U8文件被用来存储IPTV频道信息,如频道名称、视频流URL等。 5. Exo播放器: ExoPlayer是谷歌官方提供的一个开源视频播放器,专为Android优化。它支持多种特性,如自定义字幕、HDR视频播放、无缝直播等。ExoPlayer通常用于处理IPTV应用中的视频流媒体播放需求。 6. 电子节目单(EPG): 电子节目单是IPTV应用中一项重要功能,它为用户提供频道的节目指南,包括当前播放的节目以及未来节目的安排。电子节目单一般以网格或列表形式展示,方便用户浏览和搜索节目信息。 7. 开源贡献文化: 该项目提到了欢迎贡献者,表明这是一个开源项目。在开源文化中,开发者社区鼓励用户、开发者贡献代码来改进项目,这是一个共享知识、共同进步的过程。参与者通过贡献代码、报告问题或提供文档帮助等方式参与项目。 8. Kotlin编程语言: Kotlin是一种运行在Java虚拟机上的静态类型编程语言,它与Java完全兼容并可以无缝集成Java代码。Kotlin以其简洁、安全和富有表现力的特点被越来越多的Android开发者采用。在本项目中,使用Kotlin可以简化代码结构,提高开发效率和应用性能。 总结而言,本项目是一个面向Android平台的实时流媒体IPTV应用开发项目,它整合了实时流式传输、M3U/M3U8文件解析、Exo播放器使用、电子节目单功能等关键技术点,并在开源社区中寻求贡献者的参与。通过本项目,开发者可以深入了解如何在Android平台上实现IPTV服务,并学习到使用Kotlin和Java等编程语言进行Android应用开发的相关知识。