python批量打开hdf文件
时间: 2023-08-04 10:03:57 浏览: 168
完美解决keras 读取多个hdf5文件进行训练的问题
你可以使用`h5py`库来批量打开hdf文件,以下是一个示例代码:
```python
import os
import h5py
# 定义hdf文件所在的文件夹路径
folder_path = "/path/to/folder"
# 获取文件夹中所有hdf文件的文件名
file_names = [file for file in os.listdir(folder_path) if file.endswith('.hdf')]
# 循环打开每个hdf文件并读取数据
for file_name in file_names:
file_path = os.path.join(folder_path, file_name)
with h5py.File(file_path, 'r') as f:
# 读取数据
dataset = f['dataset_name']
data = dataset[:]
# TODO: 处理数据
```
在上面的示例代码中,我们首先定义了hdf文件所在的文件夹路径,然后使用`os.listdir()`函数获取文件夹中所有的hdf文件名。接下来,我们循环打开每个hdf文件,并使用`h5py.File()`函数打开文件。最后,我们使用`[:]`操作符读取数据,并进行处理。
请注意,在处理完每个文件后,我们需要手动关闭文件,可以使用`with`语句来自动关闭文件。
阅读全文