def convert_midi(fp): _duration_keys = set() stream = converter.parse(fp) partitions = instrument.partitionByInstrument(stream) # print([(part.getInstrument().instrumentName, len(part.flat.notes)) for part in partitions]) # 获取第一个小节(Measure)中的节拍数 _press_time_dict = defaultdict(list) partition = None for part_sub in partitions: if part_sub.getInstrument().instrumentName.lower() == 'piano' and len(part_sub.flat.notes) > 0: partition = part_sub continue if partition is None: return None, None for _note in partition.flat.notes: _duration = str(_note.duration.quarterLength) if isinstance(_note, NoteClass.Note): _press_time_dict[str(_note.offset)].append([str(_note.pitch), _duration]) _duration_keys.add(_duration) if isinstance(_note, ChordClass.Chord): press_list = _press_time_dict[str(_note.offset)] _duration_keys.add(_duration) for sub_note in _note.notes: press_list.append([str(sub_note.pitch), _duration]) return _press_time_dict, _duration_keys def get_total_keys(_midi_list): _total_keys = set() for _press_time_dict in _midi_list: for step in _press_time_dict.values(): for item in step: _total_keys.add(item[0]) return _total_keys
时间: 2024-03-30 09:34:46 浏览: 104
这段代码的作用是将一个midi文件转换成按键按下的时间和时值的字典,并计算出midi文件中一共用了哪些按键。具体实现过程是:先使用music21库的converter.parse()函数将midi文件解析成Music21 Stream对象,然后使用instrument.partitionByInstrument()函数将Stream对象按照乐器进行分轨,找到钢琴乐器所在的分轨,然后遍历所有音符,按照时间将音符存储在一个字典_press_time_dict中,字典的key为音符的开始时间,value为一个列表,其中每个元素为一个按键和对应的时值;同时记录每个音符的时值,并将这些时值存入一个set集合_duration_keys中。最后使用get_total_keys()函数遍历所有_press_time_dict,将其中出现过的所有按键存储到另外一个set集合_total_keys中,即为midi文件中使用的所有按键。
相关问题
_duration_keys = set() stream = converter.parse(fp) partitions = instrument.partitionByInstrument(stream)
这段代码涉及了 `music21` 库中的一些函数和对象。具体来说:
- `_duration_keys = set()` 定义了一个空集合 `_duration_keys`,用于存储音符的时值。
- `stream = converter.parse(fp)` 使用 `converter.parse()` 函数将文件 `fp` 解析为 `music21` 中的音乐流(`stream`)对象。
- `partitions = instrument.partitionByInstrument(stream)` 使用 `instrument.partitionByInstrument()` 函数将音乐流按照乐器进行分轨,得到一个列表 `partitions`,其中每个元素都是一个只包含单个乐器音轨的音乐流对象。
这段代码使用了 `music21` 库中的一些基本的函数和对象,用于读取和处理音乐文件。其中,`converter.parse()` 函数用于将音乐文件解析为 `music21` 中的音乐流对象,而 `instrument.partitionByInstrument()` 函数用于将音乐流按照乐器进行分轨,方便后续的处理。
def convert_midi(fp, _seq_len): notes_list = [] stream = converter.parse(fp) partitions = instrument.partitionByInstrument(stream) # print([(part.getInstrument().instrumentName, len(part.flat.notes)) for part in partitions]) # 获取第一个小节(Measure)中的节拍数 _press_time_dict = defaultdict(list) partition = None for part_sub in partitions: if part_sub.getInstrument().instrumentName.lower() == 'piano' and len(part_sub.flat.notes) > 0: partition = part_sub continue if partition is None: return None, None for _note in partition.flat.notes: _duration = str(_note.duration.quarterLength) if isinstance(_note, NoteClass.Note): _press_time_dict[str(_note.offset)].append([str(_note.pitch), _duration]) notes_list.append(_note) if isinstance(_note, ChordClass.Chord): press_list = _press_time_dict[str(_note.offset)] notes_list.append(_note) for sub_note in _note.notes: press_list.append([str(sub_note.pitch), _duration]) if len(_press_time_dict) == _seq_len: break _items = list(_press_time_dict.items()) _items = sorted(_items, key=lambda t:float(Fraction(t[0])))[:_seq_len] if len(_items) < _seq_len: return None,None last_step = Fraction(0,1) notes = np.zeros(shape=(_seq_len,len(notes_vocab),len(durations_vocab)),dtype=np.float32) steps = np.zeros(shape=(_seq_len,len(offsets_vocab)),dtype=np.float32) for idx,(cur_step,entities) in enumerate(_items): cur_step = Fraction(cur_step) diff_step = str(cur_step - last_step) if diff_step in offsets_vocab: steps[idx,offsets_vocab.index(diff_step)] = 1. last_step = cur_step else: steps[idx,offsets_vocab.index('0')] = 1. for pitch,quarterLen in entities: notes[idx,notes_vocab.index(pitch),durations_vocab.index(quarterLen if quarterLen in durations_vocab else '0')] = 1. notes = notes.reshape((seq_len,-1)) inputs = np.concatenate([notes,steps],axis=-1) return inputs,notes_list
这段代码是用来将midi文件转化为神经网络模型的输入,其中的`fp`参数是midi文件路径,`_seq_len`是序列长度。它首先使用`music21`库的`converter`模块读取midi文件,然后使用`instrument`模块按照乐器将音符分开。接着,它找到了乐器为钢琴的音轨,并将其中的音符按照时间顺序收集到`_press_time_dict`字典中。最后,它将`_press_time_dict`中的音符转化为神经网络模型的输入,其中包括每个时间步的音符和持续时间等信息。
阅读全文