打包生成exe文件后,运行出现WARNING:file already nut should not:C:\Userd\www\AppData\Local\Temp\_MEI59162\torch\_C.cp36-win_amd64.pyd
时间: 2024-04-21 13:20:45 浏览: 81
在打包生成exe文件后,如果在运行时出现类似的警告信息"WARNING: file already nut should not:C:\Userd\www\AppData\Local\Temp\_MEI59162\torch\_C.cp36-win_amd64.pyd",这通常是由于打包工具将某些文件重复打包导致的。
这个警告信息表明在打包过程中,某个文件被重复添加到了可执行文件中。这可能是由于打包工具的配置问题或者打包过程中的一些错误导致的。
解决这个问题的方法是检查打包工具的配置,确保没有将重复的文件添加到可执行文件中。另外,还可以尝试重新打包生成exe文件,确保打包过程中没有出现错误。
相关问题
postgresql數據庫中有一個josnb類型的數據:{ "paraInfo":[ { "lot":"A211225VJA1", "power":"70.00", "speed":"230.00", "nutName":"nut1", "waveform":"0#", "frequency":"700.00", "weldingTime":"20230605085401" }, { "lot":"A211225VJA1", "power":"70.00", "speed":"230.00", "nutName":"nut2", "waveform":"0#", "frequency":"700.00", "weldingTime":"20230605085401" } ] },如何使用SQL語句將他轉化為這樣的json數據:{ "nut1>lot":"A211225VJA1", "nut1>power":"70.00", "nut1>speed":"230.00", "nut1>waveform":"0#", "nut1>frequency":"700.00", "nut1>weldingTime":"20230605085401", "nut2>lot":"A211225VJA1", "nut2>power":"70.00", "nut2>speed":"230.00", "nut2>nutName":"nut2", "nut2>waveform":"0#", "nut2>frequency":"700.00", "nut2>weldingTime":"20230605085401" }
你可以使用PostgreSQL的jsonb_build_object函数和jsonb_agg函数来实现这个要求。
下面是一个示例查询语句,假设你有一个名为"test"的表,其中包含一个名为"data"的jsonb列:
```sql
SELECT jsonb_agg(
jsonb_build_object(
nutName || '>' || key, value
)
)
FROM test, jsonb_array_elements(data->'paraInfo') info, jsonb_each(info)
WHERE key != 'nutName';
```
在这个查询中,我们首先使用jsonb_array_elements函数将jsonb数组"paraInfo"拆分为对象,并使用jsonb_each函数将每个对象拆分为键值对。然后,使用nutName和key拼接出新的键,并使用value作为新的键值对的值。最后,使用jsonb_agg函数将所有新的键值对合并为一个新的jsonb数组。
这个查询将返回一个新的jsonb数组,其中包含所有新的键值对。
import numpy as np def replacezeroes(data): min_nonzero = np.min(data[np.nonzero(data)]) data[data == 0] = min_nonzero return data # Change the line below, based on U file # Foundation users set it to 20, ESI users set it to 21 LINE = 20 def read_scalar(filename): # Read file file = open(filename, 'r') lines_1 = file.readlines() file.close() num_cells_internal = int(lines_1[LINE].strip('\n')) lines_1 = lines_1[LINE + 2:LINE + 2 + num_cells_internal] for i in range(len(lines_1)): lines_1[i] = lines_1[i].strip('\n') field = np.asarray(lines_1).astype('double').reshape(num_cells_internal, 1) field = replacezeroes(field) return field def read_vector(filename): # Only x,y components file = open(filename, 'r') lines_1 = file.readlines() file.close() num_cells_internal = int(lines_1[LINE].strip('\n')) lines_1 = lines_1[LINE + 2:LINE + 2 + num_cells_internal] for i in range(len(lines_1)): lines_1[i] = lines_1[i].strip('\n') lines_1[i] = lines_1[i].strip('(') lines_1[i] = lines_1[i].strip(')') lines_1[i] = lines_1[i].split() field = np.asarray(lines_1).astype('double')[:, :2] return field if __name__ == '__main__': print('Velocity reader file') heights = [2.0, 1.5, 0.5, 0.75, 1.75, 1.25] total_dataset = [] # Read Cases for i, h in enumerate(heights, start=1): U = read_vector(f'U_{i}') nut = read_scalar(f'nut_{i}') cx = read_scalar(f'cx_{i}') cy = read_scalar(f'cy_{i}') h = np.ones(shape=(np.shape(U)[0], 1), dtype='double') * h temp_dataset = np.concatenate((U, cx, cy, h, nut), axis=-1) total_dataset.append(temp_dataset) total_dataset = np.reshape(total_dataset, (-1, 6)) print(total_dataset.shape) # Save data np.save('Total_dataset.npy', total_dataset) # Save the statistics of the data means = np.mean(total_dataset, axis=0).reshape(1, np.shape(total_dataset)[1]) stds = np.std(total_dataset, axis=0).reshape(1, np.shape(total_dataset)[1]) # Concatenate op_data = np.concatenate((means, stds), axis=0) np.savetxt('means', op_data, delimiter=' ') # Need to write out in OpenFOAM rectangular matrix format print('Means:') print(means) print('Stds:') print(stds)解析python代码,说明读取的数据文件格式
这段代码是一个用于读取数据文件的 Python 脚本。它包含了两个函数:`read_scalar(filename)` 和 `read_vector(filename)`,并使用了 `replacezeroes(data)` 函数来替换数组中的零值。脚本读取名为 `U_1`, `U_2`, ..., `U_6` 的文件,并根据文件中的数据生成一个包含各个高度的数据集。
函数 `read_scalar(filename)` 用于读取标量数据文件。它打开给定的文件,读取指定行数的数据,并将其存储在一个 NumPy 数组中。函数 `read_vector(filename)` 用于读取包含 x 和 y 分量的矢量数据文件。它也打开给定的文件,读取指定行数的数据,并将其存储在一个 NumPy 数组中。
在脚本的主程序中,一共读取了 6 个名为 `U`, `nut`, `cx`, `cy`, `h` 的文件,并将它们的数据分别存储在 `total_dataset` 列表中。然后,通过使用 NumPy 的函数将列表中的数据合并成一个包含 6 列的数组。最后,将合并后的数据保存为 `Total_dataset.npy` 文件,并计算并保存数据的均值和标准差。
这段代码假设数据文件的格式为文本文件,每行包含一个数据值。
阅读全文