_n_offsets = offset_arr.shape[1]

时间: 2024-02-02 13:03:58 浏览: 27
这行代码中,`offset_arr` 是一个二维的 numpy 数组,表示每个音符在序列中的偏移量。它的形状为 `(n_samples, n_notes)`,其中 `n_samples` 表示样本数,`n_notes` 表示每个样本中包含的音符数。因此,`offset_arr.shape[1]` 表示从第二维开始的形状中的第一个维度,也就是 `n_notes`。 这行代码的作用是将 `offset_arr` 的第二维的形状赋值给变量 `_n_offsets`。这样做是为了方便后面的代码对每个音符的偏移量进行处理。
相关问题

def load_dataset(seq_len,batch_size=32): note_arr = np.load("notes_array.npy") _n_notes, _n_durations = note_arr.shape[1:] offset_arr = np.load("offsets_array.npy") _n_offsets = offset_arr.shape[1] note_arr = np.reshape(note_arr, (note_arr.shape[0], -1)) note_data = np.concatenate([note_arr, offset_arr], axis=-1) _n_embeddings = note_data.shape[-1]

这段代码定义了一个名为load_dataset()的函数,用来加载音符和节奏序列数据集。它首先从文件中加载note_arr、offset_arr数组,这两个数组分别表示音符和节奏序列的二维矩阵形式。然后,通过np.concatenate()函数将这两个数组按列合并成一个新的数组note_data,其中每个元素都表示一个音符或节奏的特征向量。接着,通过np.reshape()函数将note_arr数组转换成二维矩阵形式,方便后续处理。最后,该函数返回了经过预处理和划分后的数据集dataset,以及音符、节奏和偏移量的个数n_notes、n_durations和n_offsets,以及嵌入向量的维度n_embeddings。

x_note = [] x_offset = [] for press_time_dict in midi_list: last_offset = Fraction(0, 1) sorted_keys = sorted(press_time_dict.keys(), key=lambda t: float(Fraction(t))) for i, key in enumerate(sorted_keys): note_arr = np.zeros(shape=(len(total_keys), len(duration_keys)), dtype=np.float32) for note, duration in press_time_dict[key]: note_arr[total_keys.index(note), duration_keys.index(duration)] = 1. note_arr[np.max(note_arr, axis=-1) == 0., duration_keys.index('0')] = 1. cur_offset = Fraction(key) x_offset.append(str(cur_offset - last_offset)) last_offset = cur_offset x_note.append(note_arr) x_note = np.stack(x_note, axis=0) offset_keys = list(set(x_offset)) x_offset_idx = np.array([offset_keys.index(offset_type) for offset_type in x_offset]) x_offset = np.eye(len(offset_keys), dtype=np.int32)[x_offset_idx] x_offset = np.array(x_offset, dtype=np.float32) np.save("notes_array.npy", x_note) np.save("offsets_array.npy", x_offset) np.save("note_keys_dict.npy", total_keys) np.save("note_offsets_dict.npy", offset_keys) np.save("note_durations_dict.npy", duration_keys)

这段代码的作用是将`midi_list`列表中的所有键值对转换为神经网络的输入格式。具体来说,它将每个键值对转换为一个二维数组,其中每行表示一个音符,每列表示一个持续时间。对于每个键值对,它还将其对应的偏移量记录在`x_offset`列表中。 在代码的第一部分中,它遍历`midi_list`中的每个键值对,并按照键的顺序将其排序。然后,它遍历排序后的键,并将其转换为一个二维数组。对于每个音符,它使用`total_keys`和`duration_keys`中的索引来确定其在数组中的位置,并将该位置的值设置为1。如果一个音符在该键值对中没有出现,则该位置的值为0。对于每个键值对,它还将持续时间为0的音符设置为1,以使这些音符可以被正确地处理。 在代码的第二部分中,它使用`x_offset`列表中的偏移量将每个键值对与其之前的键值对分开。然后,它将`x_note`和`x_offset`转换为NumPy数组,并将它们保存在`.npy`文件中。最后,它将`total_keys`、`offset_keys`和`duration_keys`保存为`.npy`文件,以便在模型训练过程中使用。

相关推荐

def convert_midi(fp, _seq_len): notes_list = [] stream = converter.parse(fp) partitions = instrument.partitionByInstrument(stream) # print([(part.getInstrument().instrumentName, len(part.flat.notes)) for part in partitions]) # 获取第一个小节(Measure)中的节拍数 _press_time_dict = defaultdict(list) partition = None for part_sub in partitions: if part_sub.getInstrument().instrumentName.lower() == 'piano' and len(part_sub.flat.notes) > 0: partition = part_sub continue if partition is None: return None, None for _note in partition.flat.notes: _duration = str(_note.duration.quarterLength) if isinstance(_note, NoteClass.Note): _press_time_dict[str(_note.offset)].append([str(_note.pitch), _duration]) notes_list.append(_note) if isinstance(_note, ChordClass.Chord): press_list = _press_time_dict[str(_note.offset)] notes_list.append(_note) for sub_note in _note.notes: press_list.append([str(sub_note.pitch), _duration]) if len(_press_time_dict) == _seq_len: break _items = list(_press_time_dict.items()) _items = sorted(_items, key=lambda t:float(Fraction(t[0])))[:_seq_len] if len(_items) < _seq_len: return None,None last_step = Fraction(0,1) notes = np.zeros(shape=(_seq_len,len(notes_vocab),len(durations_vocab)),dtype=np.float32) steps = np.zeros(shape=(_seq_len,len(offsets_vocab)),dtype=np.float32) for idx,(cur_step,entities) in enumerate(_items): cur_step = Fraction(cur_step) diff_step = str(cur_step - last_step) if diff_step in offsets_vocab: steps[idx,offsets_vocab.index(diff_step)] = 1. last_step = cur_step else: steps[idx,offsets_vocab.index('0')] = 1. for pitch,quarterLen in entities: notes[idx,notes_vocab.index(pitch),durations_vocab.index(quarterLen if quarterLen in durations_vocab else '0')] = 1. notes = notes.reshape((seq_len,-1)) inputs = np.concatenate([notes,steps],axis=-1) return inputs,notes_list

ulint* rec_get_offsets_func( /*=================*/ const rec_t* rec, /*!< in: physical record */ const dict_index_t* index, /*!< in: record descriptor */ ulint* offsets,/*!< in/out: array consisting of offsets[0] allocated elements, or an array from rec_get_offsets(), or NULL */ ulint n_fields,/*!< in: maximum number of initialized fields (ULINT_UNDEFINED if all fields) */ #ifdef UNIV_DEBUG const char* file, /*!< in: file name where called */ ulint line, /*!< in: line number where called */ #endif /* UNIV_DEBUG */ mem_heap_t** heap) /*!< in/out: memory heap */ { ulint n; ulint size; ut_ad(rec); ut_ad(index); ut_ad(heap); if (dict_table_is_comp(index->table)) { switch (UNIV_EXPECT(rec_get_status(rec), REC_STATUS_ORDINARY)) { case REC_STATUS_ORDINARY: n = dict_index_get_n_fields(index); break; case REC_STATUS_NODE_PTR: /* Node pointer records consist of the uniquely identifying fields of the record followed by a child page number field. */ n = dict_index_get_n_unique_in_tree_nonleaf(index) + 1; break; case REC_STATUS_INFIMUM: case REC_STATUS_SUPREMUM: /* infimum or supremum record */ n = 1; break; default: ut_error; return(NULL); } } else { n = rec_get_n_fields_old(rec); } if (UNIV_UNLIKELY(n_fields < n)) { n = n_fields; } /* The offsets header consists of the allocation size at offsets[0] and the REC_OFFS_HEADER_SIZE bytes. */ size = n + (1 + REC_OFFS_HEADER_SIZE); if (UNIV_UNLIKELY(!offsets) || UNIV_UNLIKELY(rec_offs_get_n_alloc(offsets) < size)) { if (UNIV_UNLIKELY(!*heap)) { *heap = mem_heap_create_at(size * sizeof(ulint), file, line); } offsets = static_cast( mem_heap_alloc(*heap, size * sizeof(ulint))); rec_offs_set_n_alloc(offsets, size); } rec_offs_set_n_fields(offsets, n); rec_init_offsets(rec, index, offsets); return(offsets); }帮我以注释的形式解释下这段代码吧

最新推荐

recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

优化MATLAB分段函数绘制:提升效率,绘制更快速

![优化MATLAB分段函数绘制:提升效率,绘制更快速](https://ucc.alicdn.com/pic/developer-ecology/666d2a4198c6409c9694db36397539c1.png?x-oss-process=image/resize,s_500,m_lfit) # 1. MATLAB分段函数绘制概述** 分段函数绘制是一种常用的技术,用于可视化不同区间内具有不同数学表达式的函数。在MATLAB中,分段函数可以通过使用if-else语句或switch-case语句来实现。 **绘制过程** MATLAB分段函数绘制的过程通常包括以下步骤: 1.
recommend-type

SDN如何实现简易防火墙

SDN可以通过控制器来实现简易防火墙。具体步骤如下: 1. 定义防火墙规则:在控制器上定义防火墙规则,例如禁止某些IP地址或端口访问,或者只允许来自特定IP地址或端口的流量通过。 2. 获取流量信息:SDN交换机会将流量信息发送给控制器。控制器可以根据防火墙规则对流量进行过滤。 3. 过滤流量:控制器根据防火墙规则对流量进行过滤,满足规则的流量可以通过,不满足规则的流量则被阻止。 4. 配置交换机:控制器根据防火墙规则配置交换机,只允许通过满足规则的流量,不满足规则的流量则被阻止。 需要注意的是,这种简易防火墙并不能完全保护网络安全,只能起到一定的防护作用,对于更严格的安全要求,需要
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

揭秘MATLAB分段函数绘制技巧:掌握绘制分段函数图的精髓

![揭秘MATLAB分段函数绘制技巧:掌握绘制分段函数图的精髓](https://img-blog.csdnimg.cn/direct/3821ea2a63d44e65925d8251196d5ca9.png) # 1. MATLAB分段函数的概念和基本语法** 分段函数是一种将函数域划分为多个子域,并在每个子域上定义不同函数表达式的函数。在MATLAB中,可以使用`piecewise`函数来定义分段函数。其语法为: ``` y = piecewise(x, x1, y1, ..., xn, yn) ``` 其中: * `x`:自变量。 * `x1`, `y1`, ..., `xn`,
recommend-type

如何用python运行loam算法

LOAM (Lidar Odometry and Mapping) 是一种基于激光雷达的SLAM算法,可以用于室内或室外环境的建图和定位。下面是一个基本的步骤来在Python中运行LOAM算法: 1. 安装ROS (Robot Operating System)和LOAM的ROS包 ``` sudo apt-get install ros-<distro>-loam-velodyne ``` 2. 安装Python的ROS客户端库rospy: ``` sudo apt-get install python-rospy ``` 3. 创建ROS工作空间并编译 ``` mkdir -p ~/ca
recommend-type

c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf

校园超市商品信息管理系统课程设计旨在帮助学生深入理解程序设计的基础知识,同时锻炼他们的实际操作能力。通过设计和实现一个校园超市商品信息管理系统,学生掌握了如何利用计算机科学与技术知识解决实际问题的能力。在课程设计过程中,学生需要对超市商品和销售员的关系进行有效管理,使系统功能更全面、实用,从而提高用户体验和便利性。 学生在课程设计过程中展现了积极的学习态度和纪律,没有缺勤情况,演示过程流畅且作品具有很强的使用价值。设计报告完整详细,展现了对问题的深入思考和解决能力。在答辩环节中,学生能够自信地回答问题,展示出扎实的专业知识和逻辑思维能力。教师对学生的表现予以肯定,认为学生在课程设计中表现出色,值得称赞。 整个课程设计过程包括平时成绩、报告成绩和演示与答辩成绩三个部分,其中平时表现占比20%,报告成绩占比40%,演示与答辩成绩占比40%。通过这三个部分的综合评定,最终为学生总成绩提供参考。总评分以百分制计算,全面评估学生在课程设计中的各项表现,最终为学生提供综合评价和反馈意见。 通过校园超市商品信息管理系统课程设计,学生不仅提升了对程序设计基础知识的理解与应用能力,同时也增强了团队协作和沟通能力。这一过程旨在培养学生综合运用技术解决问题的能力,为其未来的专业发展打下坚实基础。学生在进行校园超市商品信息管理系统课程设计过程中,不仅获得了理论知识的提升,同时也锻炼了实践能力和创新思维,为其未来的职业发展奠定了坚实基础。 校园超市商品信息管理系统课程设计的目的在于促进学生对程序设计基础知识的深入理解与掌握,同时培养学生解决实际问题的能力。通过对系统功能和用户需求的全面考量,学生设计了一个实用、高效的校园超市商品信息管理系统,为用户提供了更便捷、更高效的管理和使用体验。 综上所述,校园超市商品信息管理系统课程设计是一项旨在提升学生综合能力和实践技能的重要教学活动。通过此次设计,学生不仅深化了对程序设计基础知识的理解,还培养了解决实际问题的能力和团队合作精神。这一过程将为学生未来的专业发展提供坚实基础,使其在实际工作中能够胜任更多挑战。
recommend-type

关系数据表示学习

关系数据卢多维奇·多斯桑托斯引用此版本:卢多维奇·多斯桑托斯。关系数据的表示学习机器学习[cs.LG]。皮埃尔和玛丽·居里大学-巴黎第六大学,2017年。英语。NNT:2017PA066480。电话:01803188HAL ID:电话:01803188https://theses.hal.science/tel-01803188提交日期:2018年HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaireUNIVERSITY PIERRE和 MARIE CURIE计算机科学、电信和电子学博士学院(巴黎)巴黎6号计算机科学实验室D八角形T HESIS关系数据表示学习作者:Ludovic DOS SAntos主管:Patrick GALLINARI联合主管:本杰明·P·伊沃瓦斯基为满足计算机科学博士学位的要求而提交的论文评审团成员:先生蒂埃里·A·退休记者先生尤尼斯·B·恩